python编写程序,爬取www.sdtbu.edu.cn网站上的所有新闻,每个新闻生成一个子文件夹,网页上的文本存放于一个文本文件,网页上的图片单独存放于该文件夹中

时间: 2024-03-30 14:40:25 浏览: 16
好的,这个问题需要编写一个爬虫程序来实现。我们可以使用Python的requests和BeautifulSoup库来获取网页内容和解析HTML。 首先,我们需要导入需要的库: ```python import os import requests from bs4 import BeautifulSoup ``` 然后,我们需要定义一个函数来获取网页内容,并使用BeautifulSoup来解析HTML: ```python def get_html(url): res = requests.get(url) res.encoding = 'utf-8' soup = BeautifulSoup(res.text, 'html.parser') return soup ``` 接下来,我们需要找到新闻列表的链接,并遍历每一个新闻链接。我们可以使用find_all函数来获取所有的新闻链接: ```python url = 'http://www.sdtbu.edu.cn/' soup = get_html(url) news_list = soup.find_all('a', class_='news-title') for news in news_list: news_url = news['href'] news_title = news.text print(news_url, news_title) ``` 现在我们已经获取了每个新闻的链接和标题,接下来我们需要在本地创建一个子文件夹,并将新闻页面的内容和图片保存到该文件夹中。我们可以使用os库中的mkdir函数来创建文件夹,并使用requests库中的get函数来下载图片。 ```python for news in news_list: news_url = news['href'] news_title = news.text # 创建子文件夹 folder_name = news_title.replace('/', '-') os.mkdir(folder_name) # 获取新闻页面的内容和图片 news_soup = get_html(news_url) content = news_soup.find('div', class_='content').text with open(folder_name + '/content.txt', 'w', encoding='utf-8') as f: f.write(content) img_list = news_soup.find_all('img') for i, img in enumerate(img_list): img_url = img['src'] img_data = requests.get(img_url).content with open(folder_name + '/img{}.jpg'.format(i), 'wb') as f: f.write(img_data) ``` 完整代码如下: ```python import os import requests from bs4 import BeautifulSoup def get_html(url): res = requests.get(url) res.encoding = 'utf-8' soup = BeautifulSoup(res.text, 'html.parser') return soup url = 'http://www.sdtbu.edu.cn/' soup = get_html(url) news_list = soup.find_all('a', class_='news-title') for news in news_list: news_url = news['href'] news_title = news.text # 创建子文件夹 folder_name = news_title.replace('/', '-') os.mkdir(folder_name) # 获取新闻页面的内容和图片 news_soup = get_html(news_url) content = news_soup.find('div', class_='content').text with open(folder_name + '/content.txt', 'w', encoding='utf-8') as f: f.write(content) img_list = news_soup.find_all('img') for i, img in enumerate(img_list): img_url = img['src'] img_data = requests.get(img_url).content with open(folder_name + '/img{}.jpg'.format(i), 'wb') as f: f.write(img_data) ```

相关推荐

最新推荐

recommend-type

用python爬取网页并导出为word文档.docx

mongodb的应用之用python爬取网页内容并用mongodb保存. 由于mongodb是文档型数据库,区别于传统的数据库,它是用来管理文档的。在传统的数据库中,信息被分割成离散的数据段,而在文档数据库中,文档是处理信息的...
recommend-type

Python爬虫爬取新闻资讯案例详解

主要介绍了Python爬虫爬取新闻资讯案例详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

用python爬取网页并用mongodb保存.docx

mongodb的应用之用python爬取网页内容并用mongodb保存. 由于mongodb是文档型数据库,区别于传统的数据库,它是用来管理文档的。在传统的数据库中,信息被分割成离散的数据段,而在文档数据库中,文档是处理信息的...
recommend-type

Python实现合并同一个文件夹下所有txt文件的方法示例

主要介绍了Python实现合并同一个文件夹下所有txt文件的方法,涉及Python针对文件的遍历、读取、写入等相关操作技巧,需要的朋友可以参考下
recommend-type

Python3 实现爬取网站下所有URL方式

今天小编就为大家分享一篇Python3 实现爬取网站下所有URL方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB结构体与对象编程:构建面向对象的应用程序,提升代码可维护性和可扩展性

![MATLAB结构体与对象编程:构建面向对象的应用程序,提升代码可维护性和可扩展性](https://picx.zhimg.com/80/v2-8132d9acfebe1c248865e24dc5445720_1440w.webp?source=1def8aca) # 1. MATLAB结构体基础** MATLAB结构体是一种数据结构,用于存储和组织相关数据。它由一系列域组成,每个域都有一个名称和一个值。结构体提供了对数据的灵活访问和管理,使其成为组织和处理复杂数据集的理想选择。 MATLAB中创建结构体非常简单,使用struct函数即可。例如: ```matlab myStruct
recommend-type

详细描述一下STM32F103C8T6怎么与DHT11连接

STM32F103C8T6可以通过单总线协议与DHT11连接。连接步骤如下: 1. 将DHT11的VCC引脚连接到STM32F103C8T6的5V电源引脚; 2. 将DHT11的GND引脚连接到STM32F103C8T6的GND引脚; 3. 将DHT11的DATA引脚连接到STM32F103C8T6的GPIO引脚,可以选择任一GPIO引脚,需要在程序中配置; 4. 在程序中初始化GPIO引脚,将其设为输出模式,并输出高电平,持续至少18ms,以激活DHT11; 5. 将GPIO引脚设为输入模式,等待DHT11响应,DHT11会先输出一个80us的低电平,然后输出一个80us的高电平,
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。