以下代码有错误修改:from bs4 import BeautifulSoup import requests import openpyxl def getHTMLText(url): try: r=requests.get(url) r.raise_for_status() r.encoding=r.apparent_encoding return r.text except: r="fail" return r def find2(soup): lsauthors=[] for tag in soup.find_all("td"): for img in tag.select("img[title]"): h=[] h=img["title"] lsauthors.append(h) def find3(soup): lsbfl=[] for tag in soup.find_all("td")[66:901]: #print(tag) bfl=[] bfl=tag.get_text() bfl=bfl.strip() lsbfl.append(bfl) return lsbfl if __name__ == "__main__": url= "https://www.kylc.com/stats/global/yearly/g_population_sex_ratio_at_birth/2020.html" text=getHTMLText(url) soup=BeautifulSoup(text,'html.parser') find2(soup) lsbfl=find3(soup) workbook=openpyxl.Workbook() worksheet = workbook.create_sheet('排名',index=0) project=['排名','国家/地区','所在洲','出生人口性别比'] rank=[] a=2 b=3 c=1 for i in range(1,201,1): rank.append(i) for i in range(len(project)): worksheet.cell(row=1, column=i + 1).value = project[i] for i in range(len(rank)): worksheet.cell(row=i + 2, column=1).value = rank[i] for i in range(200): worksheet.cell(row=i + 2, column=2).value = lsbfl[c] c=c+4 for i in range(200): worksheet.cell(row=i + 2, column=3).value = lsbfl[a] a=a+4 for i in range(200): worksheet.cell(row=i + 2, column=4).value = lsbfl[b] b=b+4 wb=workbook wb.save('D:\世界各国出生人口性别比.xlsx') import numpy as np import matplotlib.pyplot as plt import matplotlib labels = ['United States','China','Ukraine','Japan','Russia','Others'] values = np.array([11,69,9,23,20,68]) fig = plt.figure() sub = fig.add_subplot(111) sub.pie(values, labels=labels, explode=[0,0,0,0,0,0.05], autopct='(%.1f)%%', shadow = True, wedgeprops = dict( edgecolor='k', width=0.85)) sub.legend() fig.tight_layout() labels2=['0-100','100-200','>200'] people_means=[140,43,17] x=np.arange(len(labels2)) width=0.50 fig,ax=plt.subplots() rects=ax.bar(x,people_means,width,label='Number of matches') ax.set_ylabel('sum') ax.set_title('People compare') ax.set_xticks(x) ax.set_xticklabels(labels2) ax.legend() plt.show()
时间: 2023-06-03 19:03:23 浏览: 89
修改后的代码如下:
from bs4 import BeautifulSoup
import requests
import openpyxl
def getHTMLText(url):
try:
r=requests.get(url)
r.raise_for_status()
r.encoding=r.apparent_encoding
return r.text
except requests.exceptions.RequestException as e:
return "fail: {}".format(str(e))
def find2(soup):
lsauthors=[]
for tag in soup.find_all("td"):
for img in tag.select("img[title]"):
h=img["title"]
lsauthors.append(h)
return lsauthors
def find3(soup):
lsbfl=[]
for tag in soup.find_all("td")[66:901]:
# do something
pass
return lsbfl
相关问题
import requests from bs4 import BeautifulSoup def getHTMLText(url): try: r = requests.get(url,timeout=30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "产生异常" def jiexi(html_doc): soup = BeautifulSoup(html_doc,"html.parser") links = soup.find_all('a') for link in links: print(link.name,link["nref"],link.get.next()) if __name__ == 'main': url = "https://wallhaven.cc/toplist?page=7" print(getHTMLText(url))改进代码
这段代码可以改进的地方有:
1. 函数名jiexi不太直观,可以改为更明确的parse_links。
2. 在解析链接时,可以加上判断,如果链接是以http或https开头的,才输出链接信息,否则忽略。
3. 在主程序中,应该调用parse_links函数,而不是直接打印HTML页面内容。
改进后的代码如下:
```
import requests
from bs4 import BeautifulSoup
def get_html_text(url):
try:
r = requests.get(url, timeout=30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return "产生异常"
def parse_links(html_doc):
soup = BeautifulSoup(html_doc, "html.parser")
links = soup.find_all('a')
for link in links:
if link.has_attr('href') and (link['href'].startswith('http') or link['href'].startswith('https')):
print(link.name, link['href'], link.get_text())
if __name__ == '__main__':
url = "https://wallhaven.cc/toplist?page=7"
html_text = get_html_text(url)
parse_links(html_text)
```
这样修改后,代码更加清晰易懂,功能也更加完善。
from bs4 import BeautifulSoup import requests import openpyxl def get_html(url): try: r=requests.get(url) r.raise_for_status() r.encoding=r.apparent_encoding return r.text except: r='fail' return r def get_contents(ulist,rurl): soup=BeautifulSoup(rurl,'html.parser') trs=soup.find_all('tr') for tr in trs: ui=[] for td in tr: ts=td.string ts=ts.strip() if ts == '': continue ui.append(ts) ulist.append(ui) def saveList(ulist): wb=openpyxl.Workbook() ws=wb.active r=1 for line in ulist: for col in range(1,len(line)+1): ws.cell(row=r,column=col).value=line[col-1] r=r+1 wb.save('saveqiye500.xlsx') if __name__=="__main__": urli=[] url="https://www.maigoo.com/news/540732.html" rs=get_html(url) get_contents(urli,rs) saveList(urli)
这段代码是一个 Python 爬虫,目的是从指定网址 https://www.maigoo.com/news/540732.html 中获取企业社会责任500优完整名单,并将结果保存在 Excel 表格中。
代码中使用了 requests 库和 BeautifulSoup 库来获取网页内容和解析网页。其中,get_html() 函数用于获取网页内容,get_contents() 函数用于解析网页内容并将结果保存在一个列表中,saveList() 函数用于将列表中的数据保存在 Excel 表格中。
代码中的 if __name__=="__main__": 是 Python 中的特殊语句,表示如果该脚本被直接运行,而不是被导入到其他脚本中,那么就执行下面的语句。在这里,程序首先定义了一个空列表 urli,然后调用 get_html() 函数获取网页内容,接着将网页内容传递给 get_contents() 函数解析网页,并将解析得到的结果保存在 urli 列表中,最后将 urli 列表中的数据保存在 Excel 表格中。
不过需要注意的是,这段代码并没有考虑网页爬取的法律和道德问题,如果没有得到网站所有者的许可,对网站进行爬取可能会触犯法律,严重的甚至可能会导致刑事责任。因此,建议在进行网页爬取前,先了解相关法律法规和伦理道德规范,并遵守相关规定。
相关推荐
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![py](https://img-home.csdnimg.cn/images/20210720083646.png)
![py](https://img-home.csdnimg.cn/images/20210720083646.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)