python爬虫爬取豆瓣评论
时间: 2023-07-07 17:37:03 浏览: 105
好的,以下是一个简单的示例代码,使用Python和requests库爬取豆瓣电影《肖申克的救赎》的评论:
```
import requests
from bs4 import BeautifulSoup
url = 'https://movie.douban.com/subject/1292052/comments?status=P'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
r = requests.get(url, headers=headers)
soup = BeautifulSoup(r.text, 'html.parser')
comments = soup.find_all('span', class_='short')
for comment in comments:
print(comment.string)
```
其中,我们首先设置了请求头部信息,以避免被豆瓣反爬虫机制禁止访问。接着,我们使用requests库发送GET请求获取页面,然后使用BeautifulSoup解析页面,提取评论信息,最后打印出来。
相关问题
python爬虫爬取豆瓣评论页
要爬取豆瓣评论页,可以使用Python的爬虫技术结合相关库来实现。可以按照以下步骤进行操作:
1. 首先,导入所需的库,如requests、BeautifulSoup和pandas。
2. 使用requests库向豆瓣评论页发送HTTP请求,获取页面的HTML内容。
3. 使用BeautifulSoup库解析HTML内容,提取所需的评论数据。
4. 将评论数据保存到Excel文件中,可以使用pandas库来处理和导出数据。
下面是一个示例代码,展示了如何爬取豆瓣评论页并保存到Excel文件中:
```python
import requests
from bs4 import BeautifulSoup
import pandas as pd
# 发送HTTP请求获取页面内容
url = 'https://movie.douban.com/subject/1292052/comments?status=P'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
response = requests.get(url, headers=headers)
html_content = response.text
# 解析HTML内容,提取评论数据
soup = BeautifulSoup(html_content, 'html.parser')
comments = soup.find_all(class_='comment-item')
data = []
for comment in comments:
username = comment.find(class_='comment-info').find('a').text.strip()
rating = comment.find(class_='rating').attrs['class'][0].replace('allstar', '')
content = comment.find(class_='short').text.strip()
data.append([username, rating, content])
# 将数据保存到Excel文件中
df = pd.DataFrame(data, columns=['Username', 'Rating', 'Content'])
df.to_excel('douban_comments.xlsx', index=False)
```
python爬虫爬取豆瓣
利用Python爬虫可以爬取豆瓣电影Top250的电影信息和电影下方的短评内容,评价人的IP地址及评价星级等内容,并生成相关Excel,将数据导入数据库。具体实现可以使用requests库来处理HTTP请求,BeautifulSoup库来解析HTML,以及pandas库来处理数据。需要注意的是,爬取网站信息时需要遵守相关法律法规和网站的爬虫规则,避免对网站造成不必要的影响。
阅读全文