使用scrapy爬取北京的天气预报 编写爬虫项目,从https://www.tianqi.com网站爬取北京的天气预报数据,并把爬取到的天气数据写入本地文本文件weather.txt。 提示: (1)安装Python扩展库scrapy,创建爬虫项目,将需要获取的字段名填写进去; (2)将爬取到的数据写入文件weather.txt;
时间: 2024-03-04 10:50:28 浏览: 62
好的,首先需要在终端中安装scrapy:
```
pip install scrapy
```
接下来创建一个新的scrapy项目:
```
scrapy startproject weather
```
进入到项目目录下,创建一个名为weather的爬虫:
```
cd weather
scrapy genspider weather_spider tianqi.com
```
打开weather_spider.py文件,我们需要对其进行如下修改:
```python
import scrapy
class WeatherSpider(scrapy.Spider):
name = 'weather_spider'
allowed_domains = ['tianqi.com']
start_urls = ['https://tianqi.com/beijing']
def parse(self, response):
# 获取天气信息
temperature = response.css('.temp::text').get()
weather = response.css('.wea::text').get()
wind = response.css('.win::text').get()
# 将天气信息写入文件
with open('weather.txt', 'w') as f:
f.write('北京天气:\n')
f.write('温度:{}\n'.format(temperature))
f.write('天气:{}\n'.format(weather))
f.write('风力:{}\n'.format(wind))
```
最后,在终端中运行爬虫:
```
scrapy crawl weather_spider
```
运行结束后,可以在项目目录下看到生成的weather.txt文件,其中包含了爬取到的北京天气预报数据。
阅读全文