爬虫爬取qq新闻里面某个新闻里面的图片,给出实例源代码,图片保存在G盘,提示或者注释部分用中文。
时间: 2024-03-19 13:41:01 浏览: 51
一个可以爬取网页图片,并且自动保存为相册的爬虫源代码
好的,以下是一个简单的Python爬虫程序,可以爬取QQ新闻中某个新闻页面中的图片,并将图片保存在G盘中:
```python
import requests
from bs4 import BeautifulSoup
import os
# 设置请求头,模拟浏览器访问
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 目标新闻页面的链接
url = 'https://new.qq.com/omn/20210702/20210702A02DD800.html'
# 发送请求,获取页面内容
r = requests.get(url, headers=headers)
# 使用BeautifulSoup解析页面内容
soup = BeautifulSoup(r.text, 'html.parser')
# 查找所有图片标签,并获取图片链接
img_tags = soup.find_all('img')
img_urls = []
for tag in img_tags:
img_url = tag.get('src')
if img_url:
img_urls.append(img_url)
# 创建保存图片的目录
if not os.path.exists('G:/qq_news_images'):
os.makedirs('G:/qq_news_images')
# 下载图片并保存到指定目录
for i, url in enumerate(img_urls):
r = requests.get(url, headers=headers)
with open(f'G:/qq_news_images/img_{i}.jpg', 'wb') as f:
f.write(r.content)
print(f'已保存图片{i}')
```
这个程序使用了requests库和BeautifulSoup库来爬取页面内容和解析页面,然后查找页面中的所有图片标签,并获取图片链接。最后,程序会创建一个名为“qq_news_images”的目录,将所有图片下载并保存到该目录下,命名方式为“img_序号.jpg”。
阅读全文