抓取国家电网电子商务平台所有招标公告,下载项目公告文件,代码示例

时间: 2024-03-29 16:41:21 浏览: 15
抓取国家电网电子商务平台所有招标公告并下载项目公告文件可以使用 Python 网络爬虫实现。以下是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup import os # 设置请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 获取页面内容的函数 def get_html(url): response = requests.get(url, headers=headers) response.encoding = 'utf-8' html = response.text return html # 获取所有招标公告的链接 def get_links(): links = [] for page in range(1, 3): # 暂时只爬前两页 url = f'http://ecp.sgcc.com.cn/ecp2.0/ecp/search/notice.jsp?page={page}&notice_type=2' html = get_html(url) soup = BeautifulSoup(html, 'html.parser') notices = soup.select('.m_m_c_list tr') for notice in notices: link = notice.select_one('a')['href'] links.append(link) return links # 下载项目公告文件 def download_files(): links = get_links() for link in links: url = f'http://ecp.sgcc.com.cn{link}' html = get_html(url) soup = BeautifulSoup(html, 'html.parser') title = soup.select_one('.detail_tit').get_text() file_links = soup.select('.m2 a') for file_link in file_links: file_url = f'http://ecp.sgcc.com.cn{file_link["href"]}' file_name = file_link.get_text() # 创建文件夹 if not os.path.exists(title): os.makedirs(title) # 下载文件 with open(f'{title}/{file_name}', 'wb') as f: f.write(requests.get(file_url).content) if __name__ == '__main__': download_files() ``` 这个示例代码使用了 requests 库和 BeautifulSoup 库,分别用于发送网络请求和解析 HTML 页面。首先使用 get_links 函数获取所有招标公告的链接,然后遍历每个链接,使用 download_files 函数下载项目公告文件。在下载文件之前,需要先创建相应的目录。

相关推荐

最新推荐

recommend-type

Python实现爬虫抓取与读写、追加到excel文件操作示例

主要介绍了Python实现爬虫抓取与读写、追加到excel文件操作,结合具体实例形式分析了Python针对糗事百科的抓取与Excel文件读写相关操作技巧,需要的朋友可以参考下
recommend-type

Python实现抓取HTML网页并以PDF文件形式保存的方法

主要介绍了Python实现抓取HTML网页并以PDF文件形式保存的方法,结合实例形式分析了PyPDF2模块的安装及Python抓取HTML页面并基于PyPDF2模块生成pdf文件的相关操作技巧,需要的朋友可以参考下
recommend-type

PHP使用Curl实现模拟登录及抓取数据功能示例

本文实例讲述了PHP使用Curl实现模拟登录及抓取数据功能。分享给大家供大家参考,具体如下: ...具体实现的流程如下(个人总结)...2. 获取cookie并存储(针对使用cookie文件的网站): $login_url = 'http://www.xxxxx';
recommend-type

Python3实现抓取javascript动态生成的html网页功能示例

主要介绍了Python3实现抓取javascript动态生成的html网页功能,结合实例形式分析了Python3使用selenium库针对javascript动态生成的HTML网页元素进行抓取的相关操作技巧,需要的朋友可以参考下
recommend-type

java抓取网页数据获取网页中所有的链接实例分享

java抓取网页数据获取网页中所有的链接实例分享,使用方法,只要实例化HtmlParser时传入网页地址就可以了
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

如何用python编写api接口

在Python中编写API接口可以使用多种框架,其中比较流行的有Flask和Django。这里以Flask框架为例,简单介绍如何编写API接口。 1. 安装Flask框架 使用pip命令安装Flask框架: ``` pip install flask ``` 2. 编写API接口 创建一个Python文件,例如app.py,编写以下代码: ```python from flask import Flask, jsonify app = Flask(__name__) @app.route('/api/hello', methods=['GET']) def hello():
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。