python爬虫数据写入csv
时间: 2023-07-17 08:07:05 浏览: 86
你可以使用Python中的csv模块将爬取到的数据写入CSV文件。下面是一个简单的示例代码:
```python
import csv
data = [
['姓名', '年龄', '性别'],
['张三', 20, '男'],
['李四', 25, '女'],
['王五', 30, '男']
]
filename = 'data.csv'
with open(filename, 'w', newline='', encoding='utf-8') as file:
writer = csv.writer(file)
writer.writerows(data)
print('数据写入成功!')
```
在这个例子中,我们创建了一个名为data的二维列表,其中包含了要写入CSV文件的数据。然后,我们指定了要写入的文件名为data.csv。
接下来,我们使用`open`函数打开文件,并指定了写入模式('w'),以及编码格式('utf-8')。然后,我们创建了一个`csv.writer`对象,该对象提供了一个`writerows`方法用于将数据写入文件。
最后,我们通过`writer.writerows(data)`将数据写入CSV文件中。
运行代码后,你将看到一个名为data.csv的文件被创建,并包含了我们定义的数据。
你可以根据你的具体需求修改代码,例如从爬虫提取的数据可以直接存储为一个列表,然后使用`writerows`方法将数据写入CSV文件。
相关问题
python爬虫数据导出csv
以下是一个使用Python爬虫将数据导出为CSV文件的示例:
```python
import csv
# 假设你已经通过爬虫获取到了数据,存储在一个列表中
data = [
{'name': '张三', 'age': 20, 'gender': '男'},
{'name': '李四', 'age': 25, 'gender': '女'},
{'name': '王五', 'age': 30, 'gender': '男'}
]
# 定义CSV文件的列名
fields = ['name', 'age', 'gender']
# 指定CSV文件的路径和文件名
filename = 'data.csv'
使用csv模块将数据写入CSV文件
with open(filename, 'w', newline='') as csvfile:
writer = csv.DictWriter(csvfile, fieldnames=fields)
writer.writeheader() # 写入列名
writer.writerows(data) # 写入数据
print("数据已成功导出为CSV文件。")
```
这段代码首先导入了csv模块,然后定义了一个包含数据的列表和一个包含列名的列表。接下来,指定了要保存CSV文件的路径和文件名。然后,使用`open()`函数打开文件,并使用`csv.DictWriter`创建一个写入器。通过调用`writeheader()`方法写入列名,然后使用`writerows()`方法将数据写入CSV文件。最后,打印出成功导出的消息。
python爬虫爬取网页 CSV
您好!对于爬取网页并将内容保存为 CSV 文件,您可以使用 Python 中的 requests 和 csv 模块来实现。下面是一个简单的示例代码:
```python
import requests
import csv
url = 'http://example.com/page' # 网页的 URL
response = requests.get(url) # 发起 GET 请求获取网页内容
# 如果请求成功,则将内容保存为 CSV 文件
if response.status_code == 200:
data = response.text
# 解析网页内容,提取需要保存的数据
# ...
# 将数据保存为 CSV 文件
with open('data.csv', 'w', newline='') as csvfile:
writer = csv.writer(csvfile)
# 写入 CSV 文件的表头
writer.writerow(['Column1', 'Column2', ...])
# 写入数据行
writer.writerow([data1, data2, ...])
# ...
print('数据已保存为 data.csv 文件')
else:
print('请求失败')
```
在上面的示例代码中,您需要替换 `url` 变量为您要爬取的网页的 URL。您还可以根据实际需要解析网页内容,提取需要保存的数据,并将其写入 CSV 文件中。
阅读全文