给定网站链接:http://htapi.hetao101.com/pandora/emoji/emojiKind.html,请对此网站中所有愤怒属性的图片爬取至一个文件夹中。 提示:'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
时间: 2023-09-08 13:07:42 浏览: 226
hetao Web 服务器软件
好的,这里提供一个基于Python的爬虫代码来实现:
```python
import os
import requests
from bs4 import BeautifulSoup
# 构造请求头部信息
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}
# 发送请求获取网页内容
url = 'http://htapi.hetao101.com/pandora/emoji/emojiKind.html'
response = requests.get(url, headers=headers)
html = response.text
# 解析网页内容并查找所有愤怒属性的图片链接
soup = BeautifulSoup(html, 'html.parser')
img_tags = soup.find_all('img', {'alt': '愤怒'})
# 创建保存图片的文件夹
if not os.path.exists('angry_images'):
os.mkdir('angry_images')
# 下载图片并保存至文件夹
for idx, img_tag in enumerate(img_tags):
img_url = img_tag.get('src')
img_name = 'angry_image_{}.png'.format(idx)
img_path = os.path.join('angry_images', img_name)
img_data = requests.get(img_url, headers=headers).content
with open(img_path, 'wb') as f:
f.write(img_data)
print('所有愤怒属性的图片已保存至文件夹 angry_images 中!')
```
这段代码会发送请求获取网页内容,然后使用 BeautifulSoup 解析网页内容,查找所有愤怒属性的图片链接。接着,它会创建一个名为 `angry_images` 的文件夹并将所有愤怒属性的图片下载并保存至该文件夹中。
需要注意的是,由于该网站的反爬措施,如果不设置请求头部信息,可能会被拦截。因此,我们需要在请求头部信息中设置一个浏览器的 User-Agent,以模拟浏览器发送请求。
阅读全文