from urllib.request import urlopen, Request from bs4 import BeautifulSoup import xlwt #导入xlwt模块,并生成一个sample3的表格文件 workbook = xlwt.Workbook(encoding='utf-8') worksheet = workbook.add_sheet('My Worksheet') # 创建第一个sheet 表单 worksheet.write(0, 0, "排名") # 写入行索引、列索引、表示要写的内容
时间: 2024-04-15 13:28:13 浏览: 62
你的代码已经成功地在第一个sheet表单的第一行第一列写入了"排名"。接下来,你可以继续编写代码来处理其他的行和列。如果你有更多的数据需要写入表格中,可以使用类似的方法来写入不同的行和列。
例如,如果你想在第二行第一列写入"姓名",可以使用以下代码:
```python
worksheet.write(1, 0, "姓名")
```
这将在第一个sheet表单的第二行第一列写入"姓名"。你可以根据需要继续写入其他的行和列。
相关问题
from urllib.request import urlopen#用于获取网页 from bs4 import BeautifulSoup#用于解析网页 html = urlopen('https://baike.pcbaby.com.cn/') bsObj = BeautifulSoup(html, 'html.parser') #//div[@id="Jbaike"]//div/dl/dd//@href t1 = bsObj.select('a') for t2 in t1: t3 = t2.get('href') print(t3)
这段代码是用于获取指定网页上的链接,并打印出来。它使用了`urllib.request`模块中的`urlopen`函数来获取网页内容,以及`BeautifulSoup`库来解析网页。
首先,通过`urlopen`函数打开指定网页,将返回的网页内容赋值给变量`html`。
然后,使用`BeautifulSoup`库将网页内容解析为一个`BeautifulSoup`对象。这里使用了'html.parser'作为解析器。
接下来,通过选择器选择所有的'a'标签,即网页中的链接元素,将它们存储在变量`t1`中。
最后,通过循环遍历`t1`,使用`get`方法获取每个链接的地址,并将其打印出来。
如果你运行这段代码,它会输出指定网页上的所有链接。
from urllib.request import urlopen import urllib.request from fake_useragent import UserAgent from time import sleep #时间限定 from bs4 import BeautifulSoup #调包 #ua = UserAgent() for page in range(10): sjzuURL = "http://124.95.133.164/work/xjlp/new_building.jsp"+str(154-page)+".htm" print(sjzuURL) headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'} #伪装爬虫,给爬虫一个身份 req = urllib.request.Request(url="http://124.95.133.164/work/xjlp/new_building.jsp", headers=headers) indexhtml = urlopen(req) #打开网页 sleep(5) soup = BeautifulSoup(indexhtml,'html.parser') #分析网页 #print(soup.prettify()) #输出 tags = soup('a') for a in tags: href=a.get('href',None) #获取超链接字符串 htext = a.string #获取超链接文字内容 if (href.find("info/1394")>=0): print(href)
这段代码导入了 `urlopen` 方法和 `urllib.request` 模块,以及 `fake_useragent` 和 `UserAgent` 类,还有 `time` 模块中的 `sleep` 函数。
阅读全文