import requests from bs4 import BeautifulSoup def get_rental_info(url): response = requests(url) soup = BeautifulSoup(response.text, 'html.parser rental_list = soup_all('div', class_='content__list--item') for rental in rental_list: title = rental.find('p', class_='content__list--item--title').text.strip() price = rental.find('span', class_='content__list--item-price').text.strip() zone = rental.find('a', class_='content__list--item--des').text.strip() print(f'Title: {title}') print(f'Price: {price}') print(f'Zone: {zone}') print('---') page_count = 5 for page in range(1, page_count+1): url = f'https://sh.lianjia.com/zufang/pg{page}/' get_rental_info(url)
时间: 2024-01-03 20:05:22 浏览: 133
教师节主题班会.pptx
这段代码是一个简单的爬虫,用于从链家网上获取租房信息并打印出来。它使用了requests库发送HTTP请求,使用BeautifulSoup库解析HTML页面。
在函数get_rental_info中,它首先发送请求并获取页面的响应。然后使用BeautifulSoup将响应的文本解析为HTML对象。接着,它找到包含租房信息的div元素,并遍历每个租房信息。
对于每个租房信息,它找到标题、价格和区域,并打印出来。
最后,在主程序中,它设置了一个页面计数变量page_count,并使用循环迭代每一页的URL,并调用get_rental_info函数来获取并打印租房信息。
注意,这里的代码可能存在一些问题,比如缩进错误和变量未定义等。但是基本的逻辑和功能是清晰的。
阅读全文