python语言从网站 https://travel.qunar.com/p-cs300195-hangzhou-meishi 中爬取需要的信息,包括页面的餐厅名称、星级、地址等信息,结果要求保存在与代码文件相同地址的目录下,文件名称为“qunar.csv”
时间: 2024-03-18 19:42:45 浏览: 195
好的,你需要使用Python编程语言来实现这个功能,需要使用requests库和BeautifulSoup库来进行网页爬取和信息提取。以下是示例代码:
```python
import requests
from bs4 import BeautifulSoup
import csv
url = "https://travel.qunar.com/p-cs300195-hangzhou-meishi"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, "html.parser")
items = soup.find_all("div", class_="list_item")
results = []
for item in items:
name = item.find("span", class_="cn_tit").text
star = item.find("span", class_="cur_star")["style"].split(":")[-1].strip("%;")
address = item.find("span", class_="cn_tit_addr").text.strip()
results.append([name, star, address])
with open("qunar.csv", "w", encoding="utf-8-sig", newline="") as file:
writer = csv.writer(file)
writer.writerow(["餐厅名称", "星级", "地址"])
writer.writerows(results)
```
这段代码会向指定的网址发送请求,然后使用BeautifulSoup库对响应的HTML进行解析,提取出需要的信息,并将结果保存在与代码文件相同地址的目录下,文件名称为“qunar.csv”。
阅读全文