import requests from bs4 import BeautifulSoup try: url="http://wap.stockstar.com/list/10" r=requests.get(url) #获取网页内容 r.encoding="utf-8" print(r.text) #返回的是Unicode编码的数据,也就是页面的源代码 except Exception as ex: print("打开网址出现错误!!!") print("错误信息: ",ex) else: soup=BeautifulSoup(r.text,"lxml") #注意这里要提前安装了模块lxml才可用,无需导入了 data=soup.find_all("li") #分析页面源代码可知,公司新闻条目都在<li>段中 print("证券之星---公司新闻") print("===================") for i in data: print(i.string) f=open("stock.txt","w") for i in data: print(i.string,file=f) f.close()
时间: 2024-04-26 13:21:25 浏览: 123
import reimport requestsfrom bs4 import BeautifulSoupimport t
这段代码是用 Python 爬取证券之星网站上的公司新闻并保存到本地文件 "stock.txt" 中。具体来说,代码首先使用 requests 库获取网页内容,然后使用 BeautifulSoup 库将获取到的网页源代码解析成 BeautifulSoup 对象,接着通过 find_all 方法找到页面中所有的公司新闻条目,最后将这些新闻条目分别打印出来,并保存到本地文件中。
阅读全文