用python编程语言爬取http://www.tianqi.com网站的广州、上海、北京、哈尔滨四个城市的30天天气信息,并分别将爬取信息存储到guanzhou.csv、shanghai.csv、beijin.csv、haerbin.csv文件
时间: 2024-01-30 16:03:27 浏览: 58
好的,我来为您提供代码。
首先,需要安装requests和BeautifulSoup4这两个库,可以使用以下命令进行安装:
```
pip install requests
pip install beautifulsoup4
```
然后,可以使用以下代码进行爬取和存储:
```python
import requests
from bs4 import BeautifulSoup
import csv
cities = ['guangzhou', 'shanghai', 'beijing', 'haerbin']
for city in cities:
url = 'http://www.tianqi.com/' + city + '/30/'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
table = soup.find('table', class_='b')
rows = table.find_all('tr')
with open(city + '.csv', 'w', newline='') as csvfile:
writer = csv.writer(csvfile)
for row in rows:
data = []
for cell in row.find_all(['th', 'td']):
data.append(cell.get_text().strip())
writer.writerow(data)
```
这段代码会依次爬取广州、上海、北京、哈尔滨四个城市的30天天气信息,并将每个城市的信息存储到对应的csv文件中。每个csv文件的第一行是表头,包括日期、天气状况、最高温度、最低温度等信息。
阅读全文