用爬虫框架Scrapy、PySpid,如何获取上述房价信息

时间: 2024-03-30 18:34:19 浏览: 18
使用 Scrapy 或 PySpider 爬虫框架,你可以更加高效地获取上述房价信息。以下是 Scrapy 爬取房天下二手房信息的示例代码: 1. 创建 Scrapy 项目 在命令行中执行以下命令,创建一个名为 fangtianxia 的 Scrapy 项目: ``` scrapy startproject fangtianxia ``` 2. 创建 Spider 在项目中创建一个名为 esf 的 Spider,用于爬取二手房信息。在 `fangtianxia/spiders` 目录下创建一个名为 `esf.py` 的文件,添加如下代码: ```python import scrapy class EsfSpider(scrapy.Spider): name = "esf" allowed_domains = ["fang.com"] start_urls = ["https://esf.fang.com/house/i3{}/"] def start_requests(self): for url in self.start_urls: for i in range(1, 21): yield scrapy.Request(url.format(i), callback=self.parse, dont_filter=True) def parse(self, response): # 解析房源信息 house_list = response.css(".shop_list .floatl") for house in house_list: title = house.css("p.title a::text").get().strip() link = house.css("p.title a::attr(href)").get() price = house.css(".price_right span::text").get().strip() layout = house.css(".tel_shop::text").get().strip() area = house.css(".area_right span::text").get().strip() floor = house.css(".flood .floatl::text").get().strip() region = house.css(".add_shop a::text").get().strip() address = house.css(".add_shop span::text").get().strip() # 将数据保存到文件或数据库中 yield { "title": title, "link": link, "price": price, "layout": layout, "area": area, "floor": floor, "region": region, "address": address, } ``` 在这个 Spider 中,我们定义了一个名为 EsfSpider 的 Spider,它爬取房天下二手房信息的前20页数据。在 start_requests 方法中,我们使用 `yield` 关键字生成了20个 HTTP 请求,分别对应前20页数据的 URL。在 parse 方法中,我们使用 CSS Selector 提取了房源信息的各个字段,并使用 `yield` 关键字将数据保存到字典中。 3. 运行 Spider 在命令行中执行以下命令,运行 Spider: ``` scrapy crawl esf -o esf.csv ``` 这个命令将会运行名为 esf 的 Spider,并将爬取到的数据保存到一个名为 esf.csv 的 CSV 文件中。你可以在 Spider 中修改数据的保存方式,例如保存到数据库中。同样的方法也可以使用 PySpider 爬虫框架来实现。

相关推荐

最新推荐

recommend-type

python爬虫框架scrapy实战之爬取京东商城进阶篇

主要给大家介绍了利用python爬虫框架scrapy爬取京东商城的相关资料,文中给出了详细的代码介绍供大家参考学习,并在文末给出了完整的代码,需要的朋友们可以参考学习,下面来一起看看吧。
recommend-type

Python爬虫实例——scrapy框架爬取拉勾网招聘信息

主要介绍了Python爬虫实例——scrapy框架爬取拉勾网招聘信息的相关资料,文中讲解非常细致,代码帮助大家更好的理解和学习,感兴趣的朋友可以了解下
recommend-type

结合scrapy和selenium爬推特的爬虫总结

适合需要一定selenium,想学习结合scrapy爬虫的以及想了解推特一些反爬虫机制的朋友
recommend-type

Python爬虫之Scrapy(爬取csdn博客)

本博客介绍使用Scrapy爬取博客数据(标题,时间,链接,内容简介)。首先简要介绍Scrapy使用,scrapy安装自行百度安装。 创建爬虫项目 安装好scrapy之后,首先新建项目文件:scrapy startproject csdnSpider 创建...
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

HSV转为RGB的计算公式

HSV (Hue, Saturation, Value) 和 RGB (Red, Green, Blue) 是两种表示颜色的方式。下面是将 HSV 转换为 RGB 的计算公式: 1. 将 HSV 中的 S 和 V 值除以 100,得到范围在 0~1 之间的值。 2. 计算色相 H 在 RGB 中的值。如果 H 的范围在 0~60 或者 300~360 之间,则 R = V,G = (H/60)×V,B = 0。如果 H 的范围在 60~120 之间,则 R = ((120-H)/60)×V,G = V,B = 0。如果 H 的范围在 120~180 之间,则 R = 0,G = V,B =
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依