帮我写一个爬取一个页面图片的python代码
时间: 2024-06-10 10:07:18 浏览: 117
当然可以,请使用以下代码实现:
```
import requests
from bs4 import BeautifulSoup
url = "https://www.example.com" #将 "https://www.example.com" 替换为要爬取图片的网页链接
r = requests.get(url)
soup = BeautifulSoup(r.content, 'html.parser')
images = soup.find_all('img')
for image in images:
img_url = image['src']
img_name = img_url.split('/')[-1]
with open(img_name, 'wb') as f:
img_data = requests.get(img_url).content
f.write(img_data)
```
注意,该代码仅供参考,实际使用时需要根据具体情况进行适当的修改。
相关问题
请帮我用python写一个爬取网页图片的代码
很高兴为你提供帮助。这是一段用Python爬取网页图片的代码:import requests
from bs4 import BeautifulSoup# 请求URL
url = 'https://www.example.com/'# 得到页面的内容
headers = {'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'}
r = requests.get(url, headers=headers)# 创建BeautifulSoup对象
soup = BeautifulSoup(r.text, 'lxml')# 搜索图片
image_tags = soup.find_all('img')# 打印所有图片的地址
for image_tag in image_tags:
print(image_tag.get('src'))
帮我写一个爬取图片的爬虫
好的,以下是一个简单的Python爬虫代码,用于爬取指定网站上的图片:
```python
import requests
from bs4 import BeautifulSoup
import os
url = "https://www.example.com" # 需要爬取图片的网站首页
save_folder = "images" # 图片存储的文件夹名称
# 创建图片存储文件夹
if not os.path.exists(save_folder):
os.makedirs(save_folder)
# 发送请求并解析HTML
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
# 获取所有图片链接,并依次下载
for img in soup.find_all("img"):
img_url = img.get("src")
if not img_url.startswith("http"):
img_url = url + img_url
response = requests.get(img_url)
with open(os.path.join(save_folder, os.path.basename(img_url)), "wb") as f:
f.write(response.content)
print(f"已下载图片:{img_url}")
```
请注意,这个爬虫只会爬取首页上的图片,并且不会对重复的图片进行去重。如果需要爬取更多页面上的图片,需要对代码进行改进。同时,爬取图片也需要遵守相关法律法规,不要滥用爬虫技术。
阅读全文