python爬虫——北京租房信息导入excel
时间: 2023-09-23 08:12:04 浏览: 189
以下是一个简单的 Python 爬虫实现,用于从北京租房信息网站上爬取租房信息并将其导入到 Excel 文件中。
首先,我们需要安装以下 Python 库:
- requests:用于发送 HTTP 请求和获取网页内容。
- Beautiful Soup:用于解析 HTML 和 XML 网页内容。
- openpyxl:用于操作 Excel 文件。
可以使用 pip 命令进行安装:
```
pip install requests beautifulsoup4 openpyxl
```
接下来,我们需要编写 Python 代码:
```python
import requests
from bs4 import BeautifulSoup
from openpyxl import Workbook
# 发送 HTTP 请求并获取网页内容
url = 'https://bj.zu.anjuke.com/fangyuan/p1/'
response = requests.get(url)
html = response.text
# 使用 Beautiful Soup 解析网页内容
soup = BeautifulSoup(html, 'html.parser')
houses = soup.select('.zu-itemmod')
# 创建 Excel 文件并添加表头
wb = Workbook()
ws = wb.active
ws.append(['标题', '链接', '小区', '面积', '租金'])
# 遍历租房信息并将其添加到 Excel 文件中
for house in houses:
title = house.select('.zu-info h3 a')[0].text.strip()
link = house.select('.zu-info h3 a')[0]['href']
community = house.select('.details-item')[0].text.strip()
area = house.select('.details-item')[1].text.strip()
price = house.select('.zu-side strong')[0].text.strip()
ws.append([title, link, community, area, price])
# 保存 Excel 文件
wb.save('beijing_rent.xlsx')
```
该爬虫程序将会从北京租房信息网站的第一页开始爬取租房信息,包括标题、链接、小区、面积和租金,并将其添加到 Excel 文件中。你可以根据需要修改代码以实现更多功能。
阅读全文