用python语言写一个程序,程序的要求:以"小牛改装”为关键词,爬取关于他的一百条微博信息,网址为www.m.weibo.cn,其中句括点赞转发评论的数据以及微博的图片和微博的内容,我需要登陆我自己的cookie和user-agent,并将其保存在excel,保存路径为 C:\Users\wangshiwei\Desktop\小牛改装.xlsx
时间: 2023-02-06 09:17:48 浏览: 103
首先,你需要安装 Python 中的第三方库 requests 和 xlwt。你可以使用 pip 命令来安装这两个库:
```
pip install requests
pip install xlwt
```
然后,你可以使用以下代码来爬取小牛改装相关的微博信息:
```python
import requests
import xlwt
# 定义爬取的关键词
keyword = "小牛改装"
# 定义请求头,包括 User-Agent 和 Cookie
headers = {
"User-Agent": "YOUR_USER_AGENT",
"Cookie": "YOUR_COOKIE"
}
# 定义保存到 Excel 的路径
excel_path = r"C:\Users\wangshiwei\Desktop\小牛改装.xlsx"
# 创建一个工作簿
workbook = xlwt.Workbook()
# 在工作簿中创建一个工作表
worksheet = workbook.add_sheet("微博信息")
# 定义表头
worksheet.write(0, 0, "微博内容")
worksheet.write(0, 1, "发布时间")
worksheet.write(0, 2, "点赞数")
worksheet.write(0, 3, "转发数")
worksheet.write(0, 4, "评论数")
worksheet.write(0, 5, "图片链接")
# 记录当前行数
row = 1
# 循环爬取前 100 条微博
for i in range(100):
# 微博的 URL,其中 page 为页码
url = f"https://m.weibo.cn/api/container/getIndex?containerid=100103type%3D1%26q%3D{keyword}&page={i+1}"
# 发送请求,获取响应
response = requests.get(url, headers=headers)
# 将响应转换为 JSON 格式
data = response.json()
# 获取微博列表
weibo_list = data["data"]["cards"]
# 循环遍历微
阅读全文