import requests from lxml import etree import time import random path = r'D:\test\伏天氏\ ' headers = { "Referer": "https://www.ibiquges.com/0/951/", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.89 Safari/537.1" } def get_urls(): url = "https://www.ibiquges.com/0/951/" response = requests.get(url, headers=headers) response.encoding = 'utf-8' html = etree.HTML(response.text) # 所有章节的url列表 url_list = ['https://www.ibiquges.com' + x for x in html.xpath('//div[@id="list"]/dl/dd/a/@href')] return url_list def get_text(url): rep = requests.get(url, headers=headers) rep.encoding = 'utf-8' dom = etree.HTML(rep.text) name = dom.xpath('//div[@class="bookname"]/h1/text()')[0] text = dom.xpath('//div[@id="content"]/text()') with open(path + f'{name}.txt', 'w', encoding='utf-8') as f: for con in text: f.write(con) print(f'{name} 下载完成') def main(): urls = get_urls() for url in urls: get_text(url) time.sleep(random.randint(1, 3)) if __name__ == '__main__': main() 怎么限制下载数量

时间: 2024-04-19 22:23:40 浏览: 182
要限制下载数量,你可以在`main`函数中设置一个计数器,当计数器达到指定数量时,跳出循环停止下载。下面是修改后的代码示例: ```python def main(limit): urls = get_urls() count = 0 # 初始化计数器 for url in urls: get_text(url) count += 1 # 每次下载完成后计数器加一 if count >= limit: # 当计数器达到指定数量时,跳出循环 break time.sleep(random.randint(1, 3)) if __name__ == '__main__': limit = 10 # 设置下载数量限制为10 main(limit) ``` 在这个示例中,我设置了下载数量限制为10。你可以根据需求修改`limit`变量的值来设置你想要的下载数量。当计数器`count`达到`limit`时,循环会被中断,停止下载。
相关问题

代码如下: import requestsfrom lxml import etreeimport numpy as npheaders = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36", "Referer": "https://www.5iai.com/", "Origin": "https://www.5iai.com"}url = "https://www.5iai.com/api/job/list"response = requests.get(url, headers=headers)response.encoding = 'utf8'html = response.textroot = etree.HTML(html)node_list = root.xpath('//div[@class="jobInfo"]/a/text()')print(node_list)np.savetxt('daijing_list.txt', node_list, fmt='%s')

在你的代码中,你使用了requests和lxml库,向https://www.5iai.com/api/job/list发送了一个GET请求,以获取一个JSON格式的响应。然后,你将响应文本转换为了HTML文本,并使用XPath表达式从中提取了一些文本信息。最后,你将这些文本信息保存到了名为daijing_list.txt的文件中。 然而,根据你提供的代码,我无法确定为什么不能成功爬取数据。有几个可能的原因是: 1. URL不正确:确保URL链接正确,没有任何拼写错误或其他错误。 2. 网站反爬虫机制:网站可能已经采取了反爬虫机制,例如IP封锁、验证码、用户代理检测等。你可以尝试更改请求头来模拟正常的用户行为,以规避这些机制。 3. 爬取的数据不存在:检查XPath表达式是否正确,以确保你正在正确地解析HTML文本,并且正在获取正确的数据。 4. 网络连接问题:在某些情况下,网络连接可能会中断或失败,导致你无法成功爬取数据。你可以尝试使用try-except语句来处理这些异常情况,并重新尝试请求。 希望这些提示可以帮助你找到问题所在。

帮我将以下代码写注释# coding=gbk # -- coding:uft-8 -- # 贝壳网小区 import requests from lxml import etree from time import sleep import hashlib from urllib import parse import pandas as pd def getPosi(tar): try: ak = 'C8rQZy1askzzMtdY3ChAZUer1P0PRjI0' sk = 'shShi1VLCkH1gGR4v75d2LTnrn2Vm5Mg' add = f'/geocoding/v3/?address={tar}&output=json&ak={ak}&city=大连市' add = parse.quote(add, safe="/:=&?#+!$,;'@()*[]") sn = hashlib.md5(parse.quote_plus(add + sk).encode('utf-8')).hexdigest() url = f'https://api.map.baidu.com{add}&sn={sn}' dic = requests.get(url).json() lat = dic['result']['location']['lat'] lng = dic['result']['location']['lng'] return lat, lng except: return None, None def collect(): items = { 'ganjingzi': 22, 'zhongshan': 19, 'shahekou': 14, 'xigang': 12 } resLs = [] for key in items: for page in range(items[key]): page += 1 url = f'https://dl.ke.com/xiaoqu/{key}/pg{page}/' headers = { 'User-Agent': ua, 'Referer': url } while True: try: res = requests.get(url=url, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) for li in tree.xpath('//ul[@class="listContent"]/li'): href = li.xpath('./a/@href')[0] while True: try: res = requests.get(url=href, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) dic = { 'href': href, 'key': key, 'name': tree.xpath('//h1/@title')[0], 'price': (tree.xpath('//span[@class="xiaoquUnitPrice"]/text()') + [''])[0], 'property': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[1].strip(), 'building': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[4].strip(), 'house': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[5].strip() } dic['lat'], dic['lng'] = getPosi(dic['name']) print(dic) resLs.append(dic) sleep(3) df = pd.DataFrame(resLs) df.to_excel('贝壳网小区.xlsx', encoding='utf-8', index=False) if name == 'main': ua = 'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.106Safari/537.36' collect()

# coding=gbk # 设置文件编码为 gbk # -- coding:uft-8 -- # 设置文件编码为 utf-8 # 贝壳网小区 # 注释,说明文件内容为贝壳网小区相关代码 import requests # 导入 requests 模块 from lxml import etree # 导入 lxml 中的 etree 模块 from time import sleep # 导入 time 模块中的 sleep 函数 import hashlib # 导入 hashlib 模块 from urllib import parse # 导入 urllib 中的 parse 模块 import pandas as pd # 导入 pandas 模块 # 定义获取位置信息的函数 def getPosi(tar): try: ak = 'C8rQZy1askzzMtdY3ChAZUer1P0PRjI0' # 百度地图开放平台中的AK sk = 'shShi1VLCkH1gGR4v75d2LTnrn2Vm5Mg' # 百度地图开放平台中的SK add = f'/geocoding/v3/?address={tar}&output=json&ak={ak}&city=大连市' # 构造请求地址 add = parse.quote(add, safe="/:=&?#+!$,;'@()*[]") # 对地址进行URL编码 sn = hashlib.md5(parse.quote_plus(add + sk).encode('utf-8')).hexdigest() # 对地址进行签名 url = f'https://api.map.baidu.com{add}&sn={sn}' # 构造完整的请求URL dic = requests.get(url).json() # 发送请求,获取位置信息 lat = dic['result']['location']['lat'] # 获取纬度 lng = dic['result']['location']['lng'] # 获取经度 return lat, lng # 返回位置信息中的纬度与经度 except: return None, None # 若获取位置信息失败,则返回 None # 定义数据收集函数 def collect(): # 定义小区名称与页数的字典 items = { 'ganjingzi': 22, 'zhongshan': 19, 'shahekou': 14, 'xigang': 12 } resLs = [] # 定义空列表,用于存储收集到的数据 for key in items: # 遍历小区名称与页数的字典 for page in range(items[key]): # 遍历每个小区的每一页 page += 1 # 页码从1开始 url = f'https://dl.ke.com/xiaoqu/{key}/pg{page}/' # 构造请求URL headers = { 'User-Agent': ua, # 设置请求头中的User-Agent 'Referer': url # 设置请求头中的Referer } while True: # 循环发送请求,直到成功或超时 try: res = requests.get(url=url, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) # 解析HTML文本 for li in tree.xpath('//ul[@class="listContent"]/li'): # 遍历每个小区的信息块 href = li.xpath('./a/@href')[0] # 获取小区详情页的URL while True: # 循环发送请求,直到成功或超时 try: res = requests.get(url=href, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) # 解析HTML文本 dic = { # 构造数据字典 'href': href, # 小区详情页的URL 'key': key, # 小区名称 'name': tree.xpath('//h1/@title')[0], # 小区名称 'price': (tree.xpath('//span[@class="xiaoquUnitPrice"]/text()') + [''])[0], # 房价 'property': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[1].strip(), # 物业类型 'building': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[4].strip(), # 建筑年代 'house': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[5].strip() # 房屋总数 } dic['lat'], dic['lng'] = getPosi(dic['name']) # 获取小区位置信息 print(dic) # 输出小区信息 resLs.append(dic) # 将小区信息添加到列表中 sleep(3) # 休眠3秒,防止请求过于频繁 df = pd.DataFrame(resLs) # 将列表中的数据转换为DataFrame格式 df.to_excel('贝壳网小区.xlsx', encoding='utf-8', index=False) # 将DataFrame中的数据保存为Excel文件 if name == 'main': # 如果文件被直接执行,则执行以下代码块 ua = 'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.106Safari/537.36' # 设置请求头中的User-Agent collect() # 调用数据收集函数
阅读全文

相关推荐

最新推荐

recommend-type

【java毕业设计】校内跑腿业务系统源码(springboot+vue+mysql+说明文档).zip

项目经过测试均可完美运行! 环境说明: 开发语言:java jdk:jdk1.8 数据库:mysql 5.7+ 数据库工具:Navicat11+ 管理工具:maven 开发工具:idea/eclipse
recommend-type

【java毕业设计】大学志愿填报系统源码(springboot+vue+mysql+说明文档).zip

项目经过测试均可完美运行! 环境说明: 开发语言:java jdk:jdk1.8 数据库:mysql 5.7+ 数据库工具:Navicat11+ 管理工具:maven 开发工具:idea/eclipse
recommend-type

基于java的网吧管理系统答辩PPT.pptx

基于java的网吧管理系统答辩PPT.pptx
recommend-type

基于java的基于SSM架构的网上书城系统答辩PPT.pptx

基于java的基于SSM架构的网上书城系统答辩PPT.pptx
recommend-type

tornado-6.1-cp37-cp37m-win32.whl

tornado-6.1-cp37-cp37m-win32.whl
recommend-type

Aspose资源包:转PDF无水印学习工具

资源摘要信息:"Aspose.Cells和Aspose.Words是两个非常强大的库,它们属于Aspose.Total产品家族的一部分,主要面向.NET和Java开发者。Aspose.Cells库允许用户轻松地操作Excel电子表格,包括创建、修改、渲染以及转换为不同的文件格式。该库支持从Excel 97-2003的.xls格式到最新***016的.xlsx格式,还可以将Excel文件转换为PDF、HTML、MHTML、TXT、CSV、ODS和多种图像格式。Aspose.Words则是一个用于处理Word文档的类库,能够创建、修改、渲染以及转换Word文档到不同的格式。它支持从较旧的.doc格式到最新.docx格式的转换,还包括将Word文档转换为PDF、HTML、XAML、TIFF等格式。 Aspose.Cells和Aspose.Words都有一个重要的特性,那就是它们提供的输出资源包中没有水印。这意味着,当开发者使用这些资源包进行文档的处理和转换时,最终生成的文档不会有任何水印,这为需要清洁输出文件的用户提供了极大的便利。这一点尤其重要,在处理敏感文档或者需要高质量输出的企业环境中,无水印的输出可以帮助保持品牌形象和文档内容的纯净性。 此外,这些资源包通常会标明仅供学习使用,切勿用作商业用途。这是为了避免违反Aspose的使用协议,因为Aspose的产品虽然是商业性的,但也提供了免费的试用版本,其中可能包含了特定的限制,如在最终输出的文档中添加水印等。因此,开发者在使用这些资源包时应确保遵守相关条款和条件,以免产生法律责任问题。 在实际开发中,开发者可以通过NuGet包管理器安装Aspose.Cells和Aspose.Words,也可以通过Maven在Java项目中进行安装。安装后,开发者可以利用这些库提供的API,根据自己的需求编写代码来实现各种文档处理功能。 对于Aspose.Cells,开发者可以使用它来完成诸如创建电子表格、计算公式、处理图表、设置样式、插入图片、合并单元格以及保护工作表等操作。它也支持读取和写入XML文件,这为处理Excel文件提供了更大的灵活性和兼容性。 而对于Aspose.Words,开发者可以利用它来执行文档格式转换、读写文档元数据、处理文档中的文本、格式化文本样式、操作节、页眉、页脚、页码、表格以及嵌入字体等操作。Aspose.Words还能够灵活地处理文档中的目录和书签,这让它在生成复杂文档结构时显得特别有用。 在使用这些库时,一个常见的场景是在企业应用中,需要将报告或者数据导出为PDF格式,以便于打印或者分发。这时,使用Aspose.Cells和Aspose.Words就可以实现从Excel或Word格式到PDF格式的转换,并且确保输出的文件中不包含水印,这提高了文档的专业性和可信度。 需要注意的是,虽然Aspose的产品提供了很多便利的功能,但它们通常是付费的。用户需要根据自己的需求购买相应的许可证。对于个人用户和开源项目,Aspose有时会提供免费的许可证。而对于商业用途,用户则需要购买商业许可证才能合法使用这些库的所有功能。"
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【R语言高性能计算秘诀】:代码优化,提升分析效率的专家级方法

![R语言](https://www.lecepe.fr/upload/fiches-formations/visuel-formation-246.jpg) # 1. R语言简介与计算性能概述 R语言作为一种统计编程语言,因其强大的数据处理能力、丰富的统计分析功能以及灵活的图形表示法而受到广泛欢迎。它的设计初衷是为统计分析提供一套完整的工具集,同时其开源的特性让全球的程序员和数据科学家贡献了大量实用的扩展包。由于R语言的向量化操作以及对数据框(data frames)的高效处理,使其在处理大规模数据集时表现出色。 计算性能方面,R语言在单线程环境中表现良好,但与其他语言相比,它的性能在多
recommend-type

在构建视频会议系统时,如何通过H.323协议实现音视频流的高效传输,并确保通信的稳定性?

要通过H.323协议实现音视频流的高效传输并确保通信稳定,首先需要深入了解H.323协议的系统结构及其组成部分。H.323协议包括音视频编码标准、信令控制协议H.225和会话控制协议H.245,以及数据传输协议RTP等。其中,H.245协议负责控制通道的建立和管理,而RTP用于音视频数据的传输。 参考资源链接:[H.323协议详解:从系统结构到通信流程](https://wenku.csdn.net/doc/2jtq7zt3i3?spm=1055.2569.3001.10343) 在构建视频会议系统时,需要合理配置网守(Gatekeeper)来提供地址解析和准入控制,保证通信安全和地址管理
recommend-type

Go语言控制台输入输出操作教程

资源摘要信息:"在Go语言(又称Golang)中,控制台的输入输出是进行基础交互的重要组成部分。Go语言提供了一组丰富的库函数,特别是`fmt`包,来处理控制台的输入输出操作。`fmt`包中的函数能够实现格式化的输入和输出,使得程序员可以轻松地在控制台显示文本信息或者读取用户的输入。" 1. fmt包的使用 Go语言标准库中的`fmt`包提供了许多打印和解析数据的函数。这些函数可以让我们在控制台上输出信息,或者从控制台读取用户的输入。 - 输出信息到控制台 - Print、Println和Printf是基本的输出函数。Print和Println函数可以输出任意类型的数据,而Printf可以进行格式化输出。 - Sprintf函数可以将格式化的字符串保存到变量中,而不是直接输出。 - Fprint系列函数可以将输出写入到`io.Writer`接口类型的变量中,例如文件。 - 从控制台读取信息 - Scan、Scanln和Scanf函数可以读取用户输入的数据。 - Sscan、Sscanln和Sscanf函数则可以从字符串中读取数据。 - Fscan系列函数与上面相对应,但它们是将输入读取到实现了`io.Reader`接口的变量中。 2. 输入输出的格式化 Go语言的格式化输入输出功能非常强大,它提供了类似于C语言的`printf`和`scanf`的格式化字符串。 - Print函数使用格式化占位符 - `%v`表示使用默认格式输出值。 - `%+v`会包含结构体的字段名。 - `%#v`会输出Go语法表示的值。 - `%T`会输出值的数据类型。 - `%t`用于布尔类型。 - `%d`用于十进制整数。 - `%b`用于二进制整数。 - `%c`用于字符(rune)。 - `%x`用于十六进制整数。 - `%f`用于浮点数。 - `%s`用于字符串。 - `%q`用于带双引号的字符串。 - `%%`用于百分号本身。 3. 示例代码分析 在文件main.go中,可能会包含如下代码段,用于演示如何在Go语言中使用fmt包进行基本的输入输出操作。 ```go package main import "fmt" func main() { var name string fmt.Print("请输入您的名字: ") fmt.Scanln(&name) // 读取一行输入并存储到name变量中 fmt.Printf("你好, %s!\n", name) // 使用格式化字符串输出信息 } ``` 以上代码首先通过`fmt.Print`函数提示用户输入名字,并等待用户从控制台输入信息。然后`fmt.Scanln`函数读取用户输入的一行信息(包括空格),并将其存储在变量`name`中。最后,`fmt.Printf`函数使用格式化字符串输出用户的名字。 4. 代码注释和文档编写 在README.txt文件中,开发者可能会提供关于如何使用main.go代码的说明,这可能包括代码的功能描述、运行方法、依赖关系以及如何处理常见的输入输出场景。这有助于其他开发者理解代码的用途和操作方式。 总之,Go语言为控制台输入输出提供了强大的标准库支持,使得开发者能够方便地处理各种输入输出需求。通过灵活运用fmt包中的各种函数,可以轻松实现程序与用户的交互功能。