[scrapy.core.scraper] DEBUG: Scraped from <200 https://sh.lianjia.com/zufang/pg2/>
时间: 2024-01-04 09:02:13 浏览: 60
{
'title': '整租 · 小区环境优美,采光好,家具齐全,拎包入住',
'price': '6300 元/月',
'area': '南京西路',
'rooms': '2室1厅1卫',
'floor': '高楼层(共6层)',
'url': 'https://sh.lianjia.com/zufang/SH2441600934478758400.html'
}
相关问题
[scrapy.core.engine] ERROR: Scraper close failure Traceback (most recent call last):
[scrapy.core.engine] ERROR: Scraper close failure是Scrapy框架中的一个错误信息,表示在关闭爬虫时出现了错误。这个错误通常是由于爬虫在关闭过程中发生了异常或错误导致的。
Scrapy是一个用于爬取网站数据的Python框架,它提供了一套强大的工具和机制来简化爬虫的开发过程。在Scrapy中,爬虫是通过编写Spider类来定义的,它负责从网站上提取数据并进行处理。
当爬虫运行结束或手动停止时,Scrapy会执行一系列的关闭操作,包括关闭爬虫、关闭下载器等。在这个过程中,如果发生了异常或错误,就会出现[scrapy.core.engine] ERROR: Scraper close failure的错误信息。
可能导致这个错误的原因有很多,比如网络连接问题、数据处理异常、配置错误等。要解决这个问题,可以通过查看详细的错误日志来定位具体的问题,并进行相应的修复。
['MOOCSpider.pipelines.TextPipeline', 'MOOCSpider.pipelines.MongoPipeline'] 2023-05-16 22:37:59 [scrapy.core.engine] INFO: Spider opened 2023-05-16 22:37:59 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 2023-05-16 22:37:59 [course] INFO: Spider opened: course 2023-05-16 22:37:59 [scrapy.extensions.telnet] INFO: Telnet console listening on 127.0.0.1:6023 2023-05-16 22:37:59 [scrapy.core.engine] DEBUG: Crawled (200) <POST https://www.icourse163.org/web/j/mocSearchBean.searchCourse.rpc?csrfKey=e3e6d578b16f42e7afe506ddae0ddd7b> (referer : None)
这是Scrapy爬虫框架输出的日志信息,它告诉我们爬虫程序已经启动并打开了一些管道(pipelines),包括文本管道(TextPipeline)和MongoDB管道(MongoPipeline),同时还监听了一个Telnet控制台。接着它向一个网站发送了一个POST请求,并收到了200的响应码。这个POST请求的目的可能是搜索相关的课程信息。