从指定网站(https://travel.qunar.com/p-cs300195-hangzhou-meishi)中爬取需要的信息,包括页面的餐厅名称、星级、地址等信息,结果要求保存在与代码文件相同地址的目录下,文件名称为“qunar.csv”
时间: 2024-03-18 15:43:39 浏览: 61
好的,这是一个爬虫问题,需要用到 Python 的 requests 和 BeautifulSoup 库来实现。以下是代码实现:
```python
import requests
from bs4 import BeautifulSoup
import csv
url = 'https://travel.qunar.com/p-cs300195-hangzhou-meishi'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, 'lxml')
# 获取每个餐厅的信息
restaurants = soup.find_all('div', class_='b_strategybox')
# 创建 csv 文件
csv_file = open('qunar.csv', 'w', newline='', encoding='utf-8-sig')
writer = csv.writer(csv_file)
writer.writerow(['名称', '星级', '地址'])
# 解析每个餐厅的信息并写入 csv 文件
for restaurant in restaurants:
name = restaurant.find('a', class_='titlink').get_text().strip()
star = restaurant.find('span', class_='product_star_level')['style'].replace('width:', '').replace('%;', '')
address = restaurant.find('span', class_='adress').get_text().strip()
writer.writerow([name, star, address])
csv_file.close()
```
运行代码后,在与代码文件相同地址的目录下会生成一个名为“qunar.csv”的文件,包含爬取到的信息,格式为:
```
名称,星级,地址
...
```
阅读全文