从指定网站https://travel.qunar.com/p-cs300195-hangzhou-meishi中爬取需要的信息,包括页面的餐厅名称、星级、地址等信息,结果要求保存在与代码文件相同地址的目录下,文件名称为“qunar.csv”
时间: 2024-03-18 08:43:21 浏览: 65
python爬取招聘网信息并保存为csv文件
好的,这是一个爬虫问题。我可以为您提供一些代码,但需要您安装相应的库。请问您是否已经安装了 requests、BeautifulSoup4 和 pandas 三个库?如果没有,可以在命令行中使用以下命令进行安装:
```
pip install requests
pip install beautifulsoup4
pip install pandas
```
安装完成后,您可以使用以下代码来爬取所需信息并保存为“qunar.csv”文件:
```python
import requests
from bs4 import BeautifulSoup
import pandas as pd
# 设置请求头,模拟浏览器访问
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 请求页面
url = 'https://travel.qunar.com/p-cs300195-hangzhou-meishi'
resp = requests.get(url, headers=headers)
# 解析页面
soup = BeautifulSoup(resp.text, 'html.parser')
restaurant_list = soup.select('.list_item')
data = []
for restaurant in restaurant_list:
name = restaurant.select_one('.tit > a').text.strip()
star = restaurant.select_one('.level > span').text.strip()
address = restaurant.select_one('.address').text.strip()
data.append([name, star, address])
# 将数据保存为 CSV 文件
df = pd.DataFrame(data, columns=['餐厅名称', '星级', '地址'])
df.to_csv('qunar.csv', index=False, encoding='utf-8-sig')
print('数据已保存至 qunar.csv 文件。')
```
运行完毕后,您就可以在与代码文件相同的目录下找到“qunar.csv”文件了。
阅读全文