def Find(url, A): global List print('正在检测图片总数,请稍等.....') s = 0 try: Result = A.get(url, timeout=7, allow_redirects=False) except BaseException: print("error") else: result = Result.text pic_url = re.findall('src="(.*?)" ;wx_lazy', result) # 先利用正则表达式找到图片url s += len(pic_url) if len(pic_url) == 0: print("没读到") else: List.append(pic_url) return s 返回"error",是什么原因

时间: 2024-04-27 14:22:12 浏览: 14
返回"error"可能的原因如下: 1. 网络连接失败,无法访问指定的URL; 2. 请求超时,可能是由于网络延迟或服务器响应缓慢; 3. A对象没有正确初始化或参数传递错误,导致无法发送请求; 4. URL地址不正确或无法解析。 可以进一步排查错误原因,例如检查网络连接是否正常,确认URL地址是否正确,检查参数传递是否正确,或者使用try-except语句捕获更多的异常信息以便进行调试。
相关问题

查看这段代码有没有错误 def countPic(url): print('正在检测图片总数,请稍等.....') pic_num='' t = 0#pn变量,用于拼接Url Url = url + str(t) try: html = requests.get(Url,header,timeout=7) except BaseException: print('请求异常') else: result = html.text #bdFmtDispNum: "约1,050,000", # print(result) flist = re.findall('"bdFmtDispNum":"(.*?)",', result, re.S) # 先利用正则表达式找到图片总数 # print(type(pic_num)) #list # print(type(flist)) for i in flist: # print(i) pic_num+=i # print(pic_num) return pic_num

这段代码可能存在以下错误: 1. 在调用 requests.get() 方法时,header 参数可能未定义。 2. 在调用 re.findall() 方法时,re.S 参数可能未定义。 3. 在对 pic_num 进行字符串拼接时,可能存在类型不匹配的问题。可以将 pic_num 定义为列表,然后使用 append() 方法添加字符串。 建议修正后的代码如下: ```python import requests import re def countPic(url): print('正在检测图片总数,请稍等.....') pic_num = [] t = 0 # pn变量,用于拼接Url Url = url + str(t) header = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} try: html = requests.get(Url, headers=header, timeout=7) except BaseException: print('请求异常') else: result = html.text flist = re.findall('"bdFmtDispNum":"(.*?)",', result, re.S) # 先利用正则表达式找到图片总数 for i in flist: pic_num.append(i) return ''.join(pic_num) ``` 此代码已经添加了 header 和 re.S 参数,并将 pic_num 定义为列表,最后使用 join() 方法将列表中的所有字符串拼接成一个字符串。

class A: def __init__(self, s): self.s = s def print(self): print(s) a = A("Welcome") a.print()

在代码中,类`A`定义了一个构造方法`__init__()`和一个实例方法`print()`。构造方法接受一个参数`s`,并将其保存在实例变量`self.s`中。实例方法`print()`输出实例变量`s`的值。然后,创建了一个类`A`的实例`a`,并将字符串"Welcome"传递给构造方法。最后,调用实例方法`print()`,输出"Welcome"。 然而,代码中存在一个错误。在实例方法`print()`中,使用了变量`s`,但是没有使用正确的方式来引用实例变量`s`。应该使用`self.s`的方式来引用实例变量`s`。因此,正确的代码应该是这样的: ```python class A: def __init__(self, s): self.s = s def print(self): print(self.s) a = A("Welcome") a.print() # 输出 "Welcome" ``` 在上面的代码中,类`A`的定义没有变化,但是在实例方法`print()`中使用了正确的方式来引用实例变量`s`,即使用`self.s`的方式。因此,创建`A`的实例`a`并调用`print()`方法时,输出"Welcome",没有报错。

相关推荐

import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] #一级页面中获取的数据(二级页面地址)存放于此列表 self.chapter_list=[] #二级页面中获取的数据(三级页面地址和章节名)存放于此列表 def get_url(url): while True: try: res=requests.get(url) if res.status_code==200: res.encoding =res.apparent_encoding print("页面获取成功") return res.text else: print("页面返回异常",res.status_code) except: print("页面获取错误") def get_book_list(self.url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url+i for i in self.bbok_list] self.book_list.remove('http://10.1.88.252:7000/庆余年') print(book_list) def get_chapter_list(self,url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((a["href"],a.text.replace("\n",""))) def get_content(self.chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text print(content) path = os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8") as f: f.write(content) def main(): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_liat(book) for chapter in chapter_list: self.get_content(chapter) book_s = book_spider("http://10.1.88.252:7000") book_s.main()这是一段爬虫代码,找出里面的错误并改正

帮我把一下代码设置一个合理请求头,并加入一个延时import requests import os from bs4 import BeautifulSoup class NovelDownloader: def __init__(self, root_url): self.root_url = root_url self.book_list = [] self.chapter_list = [] def get_url(self, url): while True: try: res = requests.get(url) if res.status_code == 200: print("页面获取成功!") return res.text else: print("页面返回异常!", res.status_code) except: print("页面获取错误!") def get_book_list(self): res = self.get_url(self.root_url) html = BeautifulSoup(res, "html.parser") a_list = html.find_all("a", {"class": "name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url + i for i in self.book_list] self.book_list.remove('http://www.biquge5200.cc/') def get_chapter_list(self, url): res = self.get_url(url) html = BeautifulSoup(res, "html.parser") a_list = html.find_all("a", {"class": "chapter"}) for a in a_list: self.chapter_list.append((a["href"], a.text.replace("\n", ""))) def get_content(self, chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res, "html.parser") content = html.find("div", {"id": "content"}).text print(content) path = os.path.join(book_name, chapter[1]) with open(path, "w", encoding="utf8") as f: f.write(content) def main(self): self.get_book_list() for book in self.book_list: self.get_chapter_list(book) for chapter in self.chapter_list: self.get_content(chapter) if __name__ == '__main__': root_url = "http://www.biquge5200.cc/" nd = NovelDownloader(root_url) nd.main()

约瑟夫环改错class Node: def __init__(self,data): self.data=data self.next=Noneclass linklist: def __init__(self): self.head=None self.data=None def isEmpty(self): if self.head: return False else: return True def length(self): if self.isEmpty(): return 0 else: t = self.head n = 1 while t.next: if t.next == self.head: break t = t.next n = n + 1 return n def addhead(self,data): node = Node(data) if self.isEmpty(): self.head = node self.tail = self.head else: node.next = self.head self.head = node self.tail.next = self.head def addtail(self,data): node=Node(data) if self.isEmpty(): self.addhead(data) else: t=self.head n=1 l=self.length() while n<l: n=n+1 t=t.next t.next=node node.next=self.head self.tail=node def delete(self,index): if self.isEmpty(): print("The linked list is empty") else: t = self.head l = self.length() if index == 0: self.head = t.next self.tail.next = self.head elif index == l - 1: n = 1 while n < l - 1: t = t.next n = n + 1 t.next = self.head self.tail = t elif index > l - 1: print("Out of range") elif index < 0: print("Wrong operation") else: n = 1 while n < index - 1: t = t.next n = n + 1 a = t.next.next t.next = a def insert(self,data,index): l = self.length() if index == 0 or self.isEmpty(): self.addhead(data) elif index >= l: self.addtail(data) else: node = Node(data) t = self.head n = 1 while n < index - 1: t = t.next n = n + 1 a = t.next t.next = node node.next = a def search(self,a): t=self.head for i in range(a): t=t.next return t.data def form(self,datalist): self.addhead(datalist[0]) for i in range(1,len(datalist)): self.addtail(datalist[i]) t = self.head while t.next != self.head: t = t.nextn,p=map(int,input().split(' '))data=[]p=p-1for i in range(1,n+1): data.append(i)print(data)datalist=[]for i in range(len(data)): datalist.append(int(data[i]))link=linklist()link.form(datalist)a=pb=[]while link.length()>0: b.append(link.search(a)) link.delete(a) a=a+p while a>=link.length(): a=a-link.length()print(b)

最新推荐

recommend-type

解决keras,val_categorical_accuracy:,0.0000e+00问题

在深度学习领域,Keras是一个非常流行的高级神经网络API,它构建在TensorFlow等后端之上,简化了模型构建和训练的过程。然而,在实践中,我们可能会遇到一些问题,例如在训练过程中遇到`val_categorical_accuracy: 0...
recommend-type

MingW VC 之.a .lib .dll .def 关系

c -&gt; dll,def,a gcc a.c -shared -o a.dll -Wl,--output-def,a.def,--out-implib,liba.a a -&gt; dll a2dll liba.a dll -&gt; a: dlltool --dllname a.dll --def a.def --output-lib liba.a (需要def文件) a -&gt; def: ...
recommend-type

解决Jupyter notebook中.py与.ipynb文件的import问题

这给开发带来了一些困扰,因为`.ipynb`文件提供了诸如自动补全、控制台交互等特性,而`.py`文件则通常需要通过文本编辑器进行编辑。 为了解决这个问题,一种常见的方法是将`.ipynb`文件转换为`.py`文件。在Jupyter ...
recommend-type

Python requests.post方法中data与json参数区别详解

def index(request): print(request.body) print(request.headers['Content-Type']) return HttpResponse("ok") ``` 如果我们从另一个Python脚本中向这个视图发送POST请求,使用`data`和`json`参数,我们将看到...
recommend-type

解决Tensorflow2.0 tf.keras.Model.load_weights() 报错处理问题

ValueError: You are trying to load a weight file containing 12 layers into a model with 0 layers. ``` 这个错误表明模型在加载权重时,发现权重文件中的层数与当前模型的层数不匹配。这通常是因为模型在...
recommend-type

利用迪杰斯特拉算法的全国交通咨询系统设计与实现

全国交通咨询模拟系统是一个基于互联网的应用程序,旨在提供实时的交通咨询服务,帮助用户找到花费最少时间和金钱的交通路线。系统主要功能包括需求分析、个人工作管理、概要设计以及源程序实现。 首先,在需求分析阶段,系统明确了解用户的需求,可能是针对长途旅行、通勤或日常出行,用户可能关心的是时间效率和成本效益。这个阶段对系统的功能、性能指标以及用户界面有明确的定义。 概要设计部分详细地阐述了系统的流程。主程序流程图展示了程序的基本结构,从开始到结束的整体运行流程,包括用户输入起始和终止城市名称,系统查找路径并显示结果等步骤。创建图算法流程图则关注于核心算法——迪杰斯特拉算法的应用,该算法用于计算从一个节点到所有其他节点的最短路径,对于求解交通咨询问题至关重要。 具体到源程序,设计者实现了输入城市名称的功能,通过 LocateVex 函数查找图中的城市节点,如果城市不存在,则给出提示。咨询钱最少模块图是针对用户查询花费最少的交通方式,通过 LeastMoneyPath 和 print_Money 函数来计算并输出路径及其费用。这些函数的设计体现了算法的核心逻辑,如初始化每条路径的距离为最大值,然后通过循环更新路径直到找到最短路径。 在设计和调试分析阶段,开发者对源代码进行了严谨的测试,确保算法的正确性和性能。程序的执行过程中,会进行错误处理和异常检测,以保证用户获得准确的信息。 程序设计体会部分,可能包含了作者在开发过程中的心得,比如对迪杰斯特拉算法的理解,如何优化代码以提高运行效率,以及如何平衡用户体验与性能的关系。此外,可能还讨论了在实际应用中遇到的问题以及解决策略。 全国交通咨询模拟系统是一个结合了数据结构(如图和路径)以及优化算法(迪杰斯特拉)的实用工具,旨在通过互联网为用户提供便捷、高效的交通咨询服务。它的设计不仅体现了技术实现,也充分考虑了用户需求和实际应用场景中的复杂性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【实战演练】基于TensorFlow的卷积神经网络图像识别项目

![【实战演练】基于TensorFlow的卷积神经网络图像识别项目](https://img-blog.csdnimg.cn/20200419235252200.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzM3MTQ4OTQw,size_16,color_FFFFFF,t_70) # 1. TensorFlow简介** TensorFlow是一个开源的机器学习库,用于构建和训练机器学习模型。它由谷歌开发,广泛应用于自然语言
recommend-type

CD40110工作原理

CD40110是一种双四线双向译码器,它的工作原理基于逻辑编码和译码技术。它将输入的二进制代码(一般为4位)转换成对应的输出信号,可以控制多达16个输出线中的任意一条。以下是CD40110的主要工作步骤: 1. **输入与编码**: CD40110的输入端有A3-A0四个引脚,每个引脚对应一个二进制位。当你给这些引脚提供不同的逻辑电平(高或低),就形成一个四位的输入编码。 2. **内部逻辑处理**: 内部有一个编码逻辑电路,根据输入的四位二进制代码决定哪个输出线应该导通(高电平)或保持低电平(断开)。 3. **输出**: 输出端Y7-Y0有16个,它们分别与输入的编码相对应。当特定的
recommend-type

全国交通咨询系统C++实现源码解析

"全国交通咨询系统C++代码.pdf是一个C++编程实现的交通咨询系统,主要功能是查询全国范围内的交通线路信息。该系统由JUNE于2011年6月11日编写,使用了C++标准库,包括iostream、stdio.h、windows.h和string.h等头文件。代码中定义了多个数据结构,如CityType、TrafficNode和VNode,用于存储城市、交通班次和线路信息。系统中包含城市节点、交通节点和路径节点的定义,以及相关的数据成员,如城市名称、班次、起止时间和票价。" 在这份C++代码中,核心的知识点包括: 1. **数据结构设计**: - 定义了`CityType`为short int类型,用于表示城市节点。 - `TrafficNodeDat`结构体用于存储交通班次信息,包括班次名称(`name`)、起止时间(原本注释掉了`StartTime`和`StopTime`)、运行时间(`Time`)、目的地城市编号(`EndCity`)和票价(`Cost`)。 - `VNodeDat`结构体代表城市节点,包含了城市编号(`city`)、火车班次数(`TrainNum`)、航班班次数(`FlightNum`)以及两个`TrafficNodeDat`数组,分别用于存储火车和航班信息。 - `PNodeDat`结构体则用于表示路径中的一个节点,包含城市编号(`City`)和交通班次号(`TraNo`)。 2. **数组和变量声明**: - `CityName`数组用于存储每个城市的名称,按城市编号进行索引。 - `CityNum`用于记录城市的数量。 - `AdjList`数组存储各个城市的线路信息,下标对应城市编号。 3. **算法与功能**: - 系统可能实现了Dijkstra算法或类似算法来寻找最短路径,因为有`MinTime`和`StartTime`变量,这些通常与路径规划算法有关。 - `curPath`可能用于存储当前路径的信息。 - `SeekCity`函数可能是用来查找特定城市的函数,其参数是一个城市名称。 4. **编程语言特性**: - 使用了`#define`预处理器指令来设置常量,如城市节点的最大数量(`MAX_VERTEX_NUM`)、字符串的最大长度(`MAX_STRING_NUM`)和交通班次的最大数量(`MAX_TRAFFIC_NUM`)。 - `using namespace std`导入标准命名空间,方便使用iostream库中的输入输出操作。 5. **编程实践**: - 代码的日期和作者注释显示了良好的编程习惯,这对于代码维护和团队合作非常重要。 - 结构体的设计使得数据组织有序,方便查询和操作。 这个C++代码实现了全国交通咨询系统的核心功能,涉及城市节点管理、交通班次存储和查询,以及可能的路径规划算法。通过这些数据结构和算法,用户可以查询不同城市间的交通信息,并获取最优路径建议。