获取https://www.wandoujia.com/apps/8130841/strategy?spm=aligames_platform_ug.wdj_seo.0.0.37965db8I6C3zN下所有链接地址并以表格保存在本地
时间: 2023-12-13 22:02:49 浏览: 140
你可以使用Python的requests库来获取网页内容,然后使用BeautifulSoup库来解析HTML文档,进而提取所有链接地址并保存为表格。以下是一个示例代码:
```python
import requests
from bs4 import BeautifulSoup
import csv
# 获取网页内容
url = "https://www.wandoujia.com/apps/8130841/strategy?spm=aligames_platform_ug.wdj_seo.0.0.37965db8I6C3zN"
response = requests.get(url)
content = response.content
# 解析HTML文档
soup = BeautifulSoup(content, 'html.parser')
# 找到所有链接地址
links = soup.find_all('a')
# 将链接地址保存到表格
filename = 'links.csv' # 保存文件的名称
with open(filename, 'w', newline='', encoding='utf-8') as file:
writer = csv.writer(file)
writer.writerow(['链接地址']) # 表头
for link in links:
writer.writerow([link.get('href')])
print(f"链接地址已保存到文件 {filename}")
```
请注意,上述代码中的URL需要根据指定页面的实际情况进行修改。同时,你还需要安装相应的库,可以使用`pip install requests`和`pip install beautifulsoup4`命令进行安装。运行代码后,将会在当前目录下生成一个名为 `links.csv` 的文件,其中包含了所有链接地址。
阅读全文