写一个python爬虫代码,爬取房天下郑州二手房数据并存入csv文件中
时间: 2024-06-10 07:06:42 浏览: 111
好的,这个问题是关于编程的,我可以为您解答。以下是一段爬取房天下郑州二手房数据并存入csv文件的Python代码:
```python
import requests
import csv
from bs4 import BeautifulSoup
url = 'https://zz.esf.fang.com/house/h316-i3{}/'
data_list = []
for i in range(1, 51):
page_url = url.format(i)
response = requests.get(page_url)
soup = BeautifulSoup(response.text, 'html.parser')
house_list = soup.find_all(class_='clearfix')
for house in house_list:
location = house.find(class_='title').text.strip()
area = house.find(class_='area alignR').text.strip()
price = house.find(class_='priceUnit').text.strip()
data_list.append([location, area, price])
with open('zhengzhou.csv', 'w', newline='', encoding='utf-8-sig') as file:
writer = csv.writer(file)
writer.writerow(['location', 'area', 'price'])
writer.writerows(data_list)
print('数据已经存入文件zhengzhou.csv中。')
```
这段代码使用requests和BeautifulSoup库进行网页爬取和网页解析,然后将爬取到的数据写入csv文件。您可以运行这段代码,将数据存入csv文件中。
阅读全文