scrapy爬取北京公交车信息 爬取北京公交车信息(https://beijing.8684.cn):公交车名称(lineName),运行时间(time),票价信息(price),所属公司(campony),往返线路(upline和downline),并将其保存在mysql数据库(bus_information数据库,information表)中。

时间: 2023-06-27 20:00:51 浏览: 41
好的,需要安装Scrapy和mysql-connector-python库。可以通过以下命令进行安装: ```pip install scrapy``` ```pip install mysql-connector-python``` 接下来,我们创建一个新的Scrapy项目: ```scrapy startproject bus_spider``` 然后进入该项目目录,创建一个新的Spider: ```scrapy genspider bus beijing.8684.cn``` 然后,在spiders/bus.py文件中编写爬虫代码如下: ```python import scrapy import mysql.connector class BusSpider(scrapy.Spider): name = 'bus' allowed_domains = ['beijing.8684.cn'] start_urls = ['https://beijing.8684.cn/'] def parse(self, response): # 获取所有公交车的链接 bus_links = response.css('#con_site_1 a::attr(href)').extract() for link in bus_links: yield scrapy.Request(response.urljoin(link), callback=self.parse_bus) def parse_bus(self, response): # 获取公交车信息 lineName = response.css('.bus_i_t1 h1::text').extract_first().strip() time = response.css('.bus_i_content p::text')[0].extract().strip() price = response.css('.bus_i_content p::text')[1].extract().strip() campony = response.css('.bus_i_content p::text')[2].extract().strip() upline = response.css('.bus_line_site .bus_line_top .bus_line_txt::text').extract() downline = response.css('.bus_line_site .bus_line_bottom .bus_line_txt::text').extract() # 保存到mysql数据库 cnx = mysql.connector.connect(user='root', password='password', host='127.0.0.1', database='bus_information') cursor = cnx.cursor() add_information = ("INSERT INTO information " "(lineName, time, price, campony, upline, downline) " "VALUES (%s, %s, %s, %s, %s, %s)") information_data = (lineName, time, price, campony, ';'.join(upline), ';'.join(downline)) cursor.execute(add_information, information_data) cnx.commit() cursor.close() cnx.close() ``` 在这段代码中,我们首先使用CSS选择器获取所有公交车的链接,并对每个链接发送一个Request请求。然后,在parse_bus函数中,我们使用CSS选择器获取公交车名称、运行时间、票价信息、所属公司、往返线路,并将这些信息保存到mysql数据库中。 最后,需要在settings.py文件中设置mysql数据库连接信息: ```python MYSQL_HOST = '127.0.0.1' MYSQL_DBNAME = 'bus_information' MYSQL_USER = 'root' MYSQL_PASSWORD = 'password' ITEM_PIPELINES = { 'bus_spider.pipelines.BusSpiderPipeline': 300, } ``` 然后,在bus_spider/pipelines.py文件中编写一个Pipeline,用于将数据保存到mysql数据库中: ```python import mysql.connector class BusSpiderPipeline: def __init__(self, mysql_host, mysql_dbname, mysql_user, mysql_password): self.mysql_host = mysql_host self.mysql_dbname = mysql_dbname self.mysql_user = mysql_user self.mysql_password = mysql_password @classmethod def from_crawler(cls, crawler): return cls( mysql_host=crawler.settings.get('MYSQL_HOST'), mysql_dbname=crawler.settings.get('MYSQL_DBNAME'), mysql_user=crawler.settings.get('MYSQL_USER'), mysql_password=crawler.settings.get('MYSQL_PASSWORD') ) def open_spider(self, spider): self.cnx = mysql.connector.connect( user=self.mysql_user, password=self.mysql_password, host=self.mysql_host, database=self.mysql_dbname ) def close_spider(self, spider): self.cnx.close() def process_item(self, item, spider): cursor = self.cnx.cursor() add_information = ("INSERT INTO information " "(lineName, time, price, campony, upline, downline) " "VALUES (%s, %s, %s, %s, %s, %s)") information_data = (item['lineName'], item['time'], item['price'], item['campony'], item['upline'], item['downline']) cursor.execute(add_information, information_data) self.cnx.commit() cursor.close() return item ``` 最后,在settings.py文件中启用Pipeline: ```python ITEM_PIPELINES = { 'bus_spider.pipelines.BusSpiderPipeline': 300, } ``` 现在,可以通过以下命令运行爬虫: ```scrapy crawl bus``` 爬虫会将所有公交车的信息保存到mysql数据库中。

相关推荐

最新推荐

recommend-type

Python爬虫实例——scrapy框架爬取拉勾网招聘信息

主要介绍了Python爬虫实例——scrapy框架爬取拉勾网招聘信息的相关资料,文中讲解非常细致,代码帮助大家更好的理解和学习,感兴趣的朋友可以了解下
recommend-type

python爬虫框架scrapy实战之爬取京东商城进阶篇

主要给大家介绍了利用python爬虫框架scrapy爬取京东商城的相关资料,文中给出了详细的代码介绍供大家参考学习,并在文末给出了完整的代码,需要的朋友们可以参考学习,下面来一起看看吧。
recommend-type

Python爬虫之Scrapy(爬取csdn博客)

本博客介绍使用Scrapy爬取博客数据(标题,时间,链接,内容简介)。首先简要介绍Scrapy使用,scrapy安装自行百度安装。... 创建一个Spider类,需要继承scrapy.Spider类,并且定义以下三个属性: 1
recommend-type

集团企业数字孪生平台信息化蓝图(应用系统架构、数据架构、IT基础设施与信息安全架构、信息化组织与管控.pptx

集团企业数字孪生平台信息化蓝图(应用系统架构、数据架构、IT基础设施与信息安全架构、信息化组织与管控.pptx
recommend-type

基于微信小程序的助农扶贫小程序

大学生毕业设计、大学生课程设计作业
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章

![:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章](https://img-blog.csdnimg.cn/img_convert/69b98e1a619b1bb3c59cf98f4e397cd2.png) # 1. 目标检测算法概述 目标检测算法是一种计算机视觉技术,用于识别和定位图像或视频中的对象。它在各种应用中至关重要,例如自动驾驶、视频监控和医疗诊断。 目标检测算法通常分为两类:两阶段算法和单阶段算法。两阶段算法,如 R-CNN 和 Fast R-CNN,首先生成候选区域,然后对每个区域进行分类和边界框回归。单阶段算法,如 YOLO 和 SSD,一次性执行检
recommend-type

info-center source defatult

这是一个 Cisco IOS 命令,用于配置 Info Center 默认源。Info Center 是 Cisco 设备的日志记录和报告工具,可以用于收集和查看设备的事件、警报和错误信息。该命令用于配置 Info Center 默认源,即设备的默认日志记录和报告服务器。在命令行界面中输入该命令后,可以使用其他命令来配置默认源的 IP 地址、端口号和协议等参数。
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。