爬取爱奇艺电视剧代码
时间: 2023-12-20 18:29:40 浏览: 140
以下是爬取爱奇艺电视剧排行的Python代码:
```python
import requests
from bs4 import BeautifulSoup
url = 'http://v.iqiyi.com/index/dianshiju/index.html'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
rank_list = soup.find_all('div', {'class': 'site-piclist_pic'})
for i, item in enumerate(rank_list):
title = item.find('a', {'class': 'site-piclist_pic_link'}).get('title')
print(f'第{i+1}名:{title}')
```
相关问题
写一个爬取电视剧的代码
下面是一个简单的 Python 代码,可以爬取豆瓣电视剧排行榜前 50 部电视剧的基本信息(包括电视剧名称、导演、主演和豆瓣评分),你可以根据自己的需要修改和扩展代码。
```python
import requests
from bs4 import BeautifulSoup
url = 'https://www.douban.com/doulist/240962/'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
response = requests.get(url, headers=headers)
soup = BeautifulSoup(response.text, 'html.parser')
items = soup.find_all('div', class_='doulist-item')
for item in items:
title = item.find('div', class_='title').a.text.strip()
info = item.find('div', class_='abstract').text.strip()
rating = item.find('div', class_='rating').find('span', class_='rating_nums').text.strip()
print(title, info, rating)
```
代码解释:
1. 使用 requests 库发送 GET 请求获取豆瓣电视剧排行榜页面的 HTML 内容;
2. 使用 BeautifulSoup 库解析 HTML,获取每部电视剧的基本信息所在的 div 元素;
3. 使用 find_all 方法获取所有的电视剧信息 div 元素,在循环中逐个处理每个元素;
4. 使用 find 方法获取电视剧名称、导演、主演和豆瓣评分所在的 HTML 元素;
5. 使用 text 和 strip 方法获取 HTML 元素中的文本内容,并打印出来。
爬取豆瓣电视剧用户浏览行为数据代码
根据提供的引用内容,没有明确提到如何爬取豆瓣电视剧用户浏览行为数据。但是可以根据引用中介绍的requests库爬取豆瓣电视剧数据的方法,结合豆瓣电视剧的API接口,来获取用户浏览行为数据。
以下是一个示例代码,可以获取豆瓣电视剧《权力的游戏》的用户浏览行为数据:
```python
import requests
# 豆瓣电视剧《权力的游戏》的ID为剧集的URL后面的数字部分
drama_id = 1764796
# 豆瓣电视剧API接口
url = f'https://api.douban.com/v2/movie/subject/{drama_id}/interests?count=100'
# 发送GET请求获取数据
response = requests.get(url)
# 输出响应结果
print(response.json())
```
该代码使用requests库发送GET请求,获取豆瓣电视剧《权力的游戏》的用户浏览行为数据。其中,豆瓣电视剧的ID为剧集的URL后面的数字部分,API接口为`https://api.douban.com/v2/movie/subject/{drama_id}/interests?count=100`,其中`{drama_id}`为电视剧的ID,`count=100`表示每次获取100条数据。