编写多线程爬虫(线程数量4个)爬取豆瓣网站人文标签下 所有书籍(至少爬取前10页)的信息(包括书名、作者、出版社、出版 日期、页数、价格、ISBN号、豆瓣评分、评价人数、书籍封面、 URL),并按照豆瓣评分降序保存(以标签名称命名)

时间: 2023-09-08 07:10:54 浏览: 43
好的,这个问题需要涉及到多线程编程和网络爬虫技术。我会尽可能详细地解答。首先,我们需要使用Python语言来实现这个爬虫程序。 1. 导入需要的模块 我们需要使用到 requests、BeautifulSoup、os、re、time和threading等模块。requests用于发送HTTP请求,BeautifulSoup用于解析HTML页面,os用于创建目录,re用于正则表达式匹配,time用于设置访问时间间隔,threading用于实现多线程。 先贴上代码: ```python import requests from bs4 import BeautifulSoup import os import re import time import threading ``` 2. 定义函数 我们需要定义多个函数来实现这个爬虫程序。首先是获取页面内容的函数: ```python def get_page(url): try: headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} r = requests.get(url, headers=headers) r.raise_for_status() r.encoding = 'utf-8' return r.text except: return '' ``` 这个函数使用requests库发送HTTP请求,获取页面的HTML内容。如果请求失败,返回空字符串。 接下来是获取书籍信息的函数: ```python def get_book_info(book_url): book_info = {} html = get_page(book_url) soup = BeautifulSoup(html, 'html.parser') info = soup.find('div', {'id': 'info'}) title = soup.find('span', {'property': 'v:itemreviewed'}).get_text() book_info['书名'] = title author = info.find_all('a', href=re.compile('https://book.douban.com/author/\\d+/$')) author_name = '' for a in author: author_name += a.get_text() + '/' book_info['作者'] = author_name[:-1] publisher = info.find(text=re.compile('出版社:')).next_sibling.strip() book_info['出版社'] = publisher pubdate = info.find(text=re.compile('出版年:')).next_sibling.strip() book_info['出版日期'] = pubdate pages = info.find(text=re.compile('页数:')).next_sibling.strip() book_info['页数'] = pages price = info.find(text=re.compile('定价:')).next_sibling.strip() book_info['价格'] = price isbn = info.find(text=re.compile('ISBN:')).next_sibling.strip() book_info['ISBN号'] = isbn rating = soup.find('strong', {'class': 'rating_num'}).get_text() book_info['豆瓣评分'] = rating comment_count = soup.find('span', {'property': 'v:votes'}).get_text() book_info['评价人数'] = comment_count cover = soup.find('a', {'class': 'nbg'}).find('img')['src'] book_info['书籍封面'] = cover return book_info ``` 这个函数传入一个书籍的URL,解析HTML页面,获取书籍的相关信息,并将其存储到一个字典中,最后返回字典。 3. 实现爬虫程序 我们需要定义一个爬虫类,其中包含了多线程爬虫的主要逻辑。 ```python class DoubanSpider: def __init__(self, tag_name, thread_num=4): self.tag_name = tag_name self.thread_num = thread_num self.page_num = 10 self.book_infos = [] self.lock = threading.Lock() self.semaphore = threading.Semaphore(thread_num) def run(self): if not os.path.exists(self.tag_name): os.mkdir(self.tag_name) for i in range(self.page_num): url = f'https://book.douban.com/tag/{self.tag_name}?start={i * 20}&type=T' html = get_page(url) soup = BeautifulSoup(html, 'html.parser') book_list = soup.find_all('li', {'class': 'subject-item'}) for book in book_list: book_url = book.find('a', {'class': 'nbg'})['href'] self.semaphore.acquire() t = threading.Thread(target=self.get_book_info, args=(book_url,)) t.start() for t in threading.enumerate(): if t != threading.current_thread(): t.join() self.book_infos.sort(key=lambda x: float(x['豆瓣评分']), reverse=True) with open(f'{self.tag_name}/{self.tag_name}.txt', 'w', encoding='utf-8') as f: for book in self.book_infos: f.write(f"书名:{book['书名']}\n") f.write(f"作者:{book['作者']}\n") f.write(f"出版社:{book['出版社']}\n") f.write(f"出版日期:{book['出版日期']}\n") f.write(f"页数:{book['页数']}\n") f.write(f"价格:{book['价格']}\n") f.write(f"ISBN号:{book['ISBN号']}\n") f.write(f"豆瓣评分:{book['豆瓣评分']}\n") f.write(f"评价人数:{book['评价人数']}\n") f.write(f"书籍封面:{book['书籍封面']}\n") f.write(f"URL:{book['URL']}\n\n") def get_book_info(self, book_url): book_info = get_book_info(book_url) with self.lock: self.book_infos.append(book_info) self.semaphore.release() ``` 这个类的构造函数中传入标签名称和线程数量两个参数。run方法首先创建一个目录来存储爬取的数据,然后循环爬取前10页的书籍列表。对于每一页中的每一本书,我们创建一个线程来获取书籍信息,同时使用一个Semaphore对象来限制线程数量。获取书籍信息的函数中,我们使用一个Lock对象来保证线程安全,将获取到的书籍信息存储到一个列表中。当所有线程执行完毕后,我们按照豆瓣评分对书籍信息进行排序,最后将其写入到一个文本文件中。 4. 测试 我们可以通过创建一个DoubanSpider对象,传入标签名称和线程数量来启动爬虫程序。比如: ```python spider = DoubanSpider('人文', thread_num=4) spider.run() ``` 这个程序会在当前目录下创建一个名为“人文”的目录,并在其中写入爬取到的数据。 由于涉及到网络爬虫,建议在合理范围内使用,避免对网站造成过大的负担。

相关推荐

最新推荐

recommend-type

基于C/C++开发的单目控制机械臂的上位机程序+视觉识别和关节角反解+源码(高分优秀项目)

基于C/C++开发的单目控制机械臂的上位机程序+视觉识别和关节角反解+源码,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用~ 基于C/C++开发的单目控制机械臂的上位机程序+视觉识别和关节角反解+源码,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用~ 基于C/C++开发的单目控制机械臂的上位机程序+视觉识别和关节角反解+源码,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用~ 基于C/C++开发的单目控制机械臂的上位机程序+视觉识别和关节角反解+源码,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用~
recommend-type

setuptools-68.2.1-py3-none-any.whl

Python库是一组预先编写的代码模块,旨在帮助开发者实现特定的编程任务,无需从零开始编写代码。这些库可以包括各种功能,如数学运算、文件操作、数据分析和网络编程等。Python社区提供了大量的第三方库,如NumPy、Pandas和Requests,极大地丰富了Python的应用领域,从数据科学到Web开发。Python库的丰富性是Python成为最受欢迎的编程语言之一的关键原因之一。这些库不仅为初学者提供了快速入门的途径,而且为经验丰富的开发者提供了强大的工具,以高效率、高质量地完成复杂任务。例如,Matplotlib和Seaborn库在数据可视化领域内非常受欢迎,它们提供了广泛的工具和技术,可以创建高度定制化的图表和图形,帮助数据科学家和分析师在数据探索和结果展示中更有效地传达信息。
recommend-type

springboot 学生信息管理系统.zip

学生管理系统是一个典型的基于 Spring Boot 的应用程序,旨在帮助学校、教育机构或培训机构管理学生信息、课程安排、成绩等。下面我将介绍一个简单的学生管理系统的设计和实现,基于 Spring Boot 框架。 功能特点 学生信息管理 添加、编辑、删除学生信息。 查询学生信息,支持按姓名、学号等条件查询。
recommend-type

setuptools-0.9.8-py2.py3-none-any.whl

Python库是一组预先编写的代码模块,旨在帮助开发者实现特定的编程任务,无需从零开始编写代码。这些库可以包括各种功能,如数学运算、文件操作、数据分析和网络编程等。Python社区提供了大量的第三方库,如NumPy、Pandas和Requests,极大地丰富了Python的应用领域,从数据科学到Web开发。Python库的丰富性是Python成为最受欢迎的编程语言之一的关键原因之一。这些库不仅为初学者提供了快速入门的途径,而且为经验丰富的开发者提供了强大的工具,以高效率、高质量地完成复杂任务。例如,Matplotlib和Seaborn库在数据可视化领域内非常受欢迎,它们提供了广泛的工具和技术,可以创建高度定制化的图表和图形,帮助数据科学家和分析师在数据探索和结果展示中更有效地传达信息。
recommend-type

利用python的pyautogui函数实现简单的自动化操作

1.安装python3.4以上版本,并配置环境变量(目前有装3.9遇到坑的,我个人用的3.7.6) 教程:https://www.runoob.com/python3/python3-install.html 2.安装依赖包 方法:在cmd中(win+R 输入cmd 回车)输入 pip install pyperclip 回车 pip install xlrd 回车 pip install pyautogui==0.9.50 回车 pip install opencv-python -i https://pypi.tuna.tsinghua.edu.cn/simple 回车 pip install pillow 回车 这几步如果哪步没成功,请自行百度 如 pip install opencv-python失败 3.把每一步要操作的图标、区域截图保存至本文件夹 png格式(注意如果同屏有多个相同图标,回默认找到最左上的一个,因此怎么截图,截多大的区域,是个学问,如输入框只截中间空白部分肯定是不行的,宗旨就是“唯一”) 4.在cmd.xls 的sheet1 中,配置每一步的指令,如指
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

用 Python 画一个可以动的爱心

好的,我可以帮助您使用Python来绘制一个动态的爱心。您可以使用turtle库来实现。以下是实现代码: ```python import turtle import math # 设置画布和画笔 canvas = turtle.Screen() canvas.bgcolor("black") pencil = turtle.Turtle() pencil.speed(0) pencil.color("red", "pink") pencil.pensize(3) # 定义爱心函数 def draw_love(heart_size, x_offset=0, y_offset=0):
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。