scrapy爬虫实现多页面爬取,在start_requests中可以用两层循环吗?代码如下: def start_requests(self): # 不能双层? for y in range(2011, 2023): for m in range(7, 9): yield Request(url=f'https://lishi.tianqi.com/beijing/{y}09.html')
时间: 2024-03-29 18:39:52 浏览: 9
Scrapy爬取dome.html_python爬虫_
可以的,你的代码是正确的。在 `start_requests()` 中使用两层循环来实现多页面爬取是一种常见的方式。你的代码会按照你所期望的方式生成多个请求,每个请求对应一个页面。不过需要注意的是,你在循环中使用的 URL 是固定的,这意味着你会多次请求同一个页面。如果你想爬取不同的页面,需要将循环中使用的 URL 动态生成。
阅读全文