用anaconda3写代码从网址爬虫数据,并写入Excel
时间: 2023-06-25 15:06:54 浏览: 120
好的,以下是基于Python的示例代码:
```python
import requests
from bs4 import BeautifulSoup
import pandas as pd
# 请求URL
url = "https://www.example.com"
# 发送请求
response = requests.get(url)
# 解析HTML
soup = BeautifulSoup(response.text, "html.parser")
# 获取表格中的数据
table = soup.find("table")
rows = table.find_all("tr")
# 提取表格中的数据并存储到列表中
data = []
for row in rows:
cells = row.find_all("td")
if cells:
data.append([cell.text.strip() for cell in cells])
# 将数据转换成DataFrame格式
df = pd.DataFrame(data, columns=["Column 1", "Column 2", "Column 3"])
# 将数据写入Excel文件
df.to_excel("data.xlsx", index=False)
```
以上代码中,我们首先使用 `requests` 库发送网页请求,并使用 `BeautifulSoup` 库解析HTML。然后,我们从表格中提取数据,并将其存储在一个列表中。接下来,我们使用 `pandas` 库将数据转换为DataFrame格式,并将其写入Excel文件中。
当然,具体的代码实现需要根据实际情况进行调整。
阅读全文