python爬取汽车之家数据_python抓取某汽车网数据解析html存入excel示例
时间: 2023-09-05 13:08:23 浏览: 192
好的,我可以为您提供一个简单的示例代码,演示如何使用 Python 爬取汽车之家的数据,并将其解析成 HTML 格式,最后将数据存入 Excel 文件中。
示例代码如下:
``` python
import requests
from bs4 import BeautifulSoup
import xlwt
# 请求头信息
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 要爬取的页面链接
url = 'https://www.autohome.com.cn/car/'
# 发送请求,获取页面内容
response = requests.get(url, headers=headers)
html = response.text
# 解析页面内容,获取需要的数据
soup = BeautifulSoup(html, 'html.parser')
car_list = soup.select('.rank-list-ul li')
# 创建 Excel 文件
workbook = xlwt.Workbook(encoding='utf-8')
worksheet = workbook.add_sheet('car_data')
# 写入表头
worksheet.write(0, 0, '排名')
worksheet.write(0, 1, '车型')
worksheet.write(0, 2, '价格')
worksheet.write(0, 3, '评分')
# 写入数据
for i, car in enumerate(car_list):
# 获取车型信息
name = car.select_one('.rank-list-title a').text
price = car.select_one('.rank-list-price').text.strip()
score = car.select_one('.rank-list-score').text.strip()
# 写入数据
worksheet.write(i+1, 0, i+1)
worksheet.write(i+1, 1, name)
worksheet.write(i+1, 2, price)
worksheet.write(i+1, 3, score)
# 保存 Excel 文件
workbook.save('car_data.xls')
```
注:该示例代码中使用了 requests 库和 BeautifulSoup 库,需要先安装这些库才能运行。另外,爬取网站数据需要遵守相关法律法规,务必谨慎使用。
阅读全文