爬虫抓取技术实例
时间: 2023-06-29 10:16:58 浏览: 59
以下是一个使用 Python 实现的简单爬虫抓取实例,抓取的是豆瓣电影TOP250的电影名称和评分:
```python
import requests
from bs4 import BeautifulSoup
url = 'https://movie.douban.com/top250'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'
}
r = requests.get(url, headers=headers)
soup = BeautifulSoup(r.text, 'html.parser')
movies = soup.find_all('div', class_='hd')
for movie in movies:
title = movie.a.span.text.strip()
rating = movie.parent.find('span', class_='rating_num').text
print(title + ' ' + rating)
```
在上述代码中,我们首先使用 requests 库向豆瓣电影TOP250的网站发送了一个 HTTP 请求,并通过 BeautifulSoup 库解析了返回的 HTML 页面。然后,我们通过查找 HTML 页面中的标签和属性,提取出了每个电影的名称和评分,并输出到控制台。
需要注意的是,我们在发送 HTTP 请求的时候,需要使用模拟浏览器的 User-Agent 头部信息,否则可能会被网站识别为爬虫并被封禁。同时,我们在抓取数据的时候,也需要遵守网站的规则,不要对网站造成过大的负担。
相关推荐
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)