请帮我用python写一个爬取网页图片的代码
时间: 2023-03-14 19:27:27 浏览: 121
很高兴为你提供帮助。这是一段用Python爬取网页图片的代码:import requests
from bs4 import BeautifulSoup# 请求URL
url = 'https://www.example.com/'# 得到页面的内容
headers = {'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'}
r = requests.get(url, headers=headers)# 创建BeautifulSoup对象
soup = BeautifulSoup(r.text, 'lxml')# 搜索图片
image_tags = soup.find_all('img')# 打印所有图片的地址
for image_tag in image_tags:
print(image_tag.get('src'))
相关问题
用Python写一个爬取网页图片
好的,以下是一个简单的Python爬取网页图片的示例代码:
```python
import requests
from bs4 import BeautifulSoup
import os
# 爬取网页图片的函数
def download_images(url):
# 发送get请求
response = requests.get(url)
# 解析HTML文档
soup = BeautifulSoup(response.content, 'html.parser')
# 获取所有的图片标签
img_tags = soup.find_all('img')
# 遍历所有的图片标签
for img_tag in img_tags:
# 获取图片地址
img_url = img_tag['src']
# 发送get请求
response = requests.get(img_url)
# 获取文件名
filename = os.path.basename(img_url)
# 写入文件
with open(filename, 'wb') as f:
f.write(response.content)
print('已下载图片:', filename)
# 测试代码
if __name__ == '__main__':
url = 'https://www.example.com'
download_images(url)
```
在这个示例代码中,我们使用了requests库和BeautifulSoup库来发送get请求和解析HTML文档。我们首先发送get请求,并将其返回的HTML文档传递给BeautifulSoup库进行解析。然后,我们使用find_all()方法获取所有的图片标签,并遍历它们以获取图片地址。最后,我们使用requests库再次发送get请求,获取图片的二进制数据,然后将其写入文件中。
帮我用python写一段爬取网站图片的代码
当爬取网站图片时,需要使用requests库下载网页并解析其中的HTML代码,使用BeautifulSoup库查找图片链接并下载图片。
下面是一个使用Python 3编写的示例代码,演示如何使用这些库来爬取网站图片:
```python
import requests
from bs4 import BeautifulSoup
import os
# 设置要爬取的网站URL
url = 'https://www.example.com'
# 发送HTTP请求并获取响应
response = requests.get(url)
# 解析HTML代码
soup = BeautifulSoup(response.content, 'html.parser')
# 查找所有的图片标签
img_tags = soup.find_all('img')
# 创建一个文件夹用于保存图片
if not os.path.exists('images'):
os.makedirs('images')
# 遍历所有的图片标签
for img in img_tags:
# 获取图片链接
img_url = img.get('src')
# 发送HTTP请求并获取响应
img_response = requests.get(img_url)
# 提取图片文件名
filename = os.path.join('images', os.path.basename(img_url))
# 保存图片
with open(filename, 'wb') as f:
f.write(img_response.content)
# 完成爬取
print('图片爬取完成!')
```
在这段代码中,我们首先发送HTTP请求获取网站的响应,然后使用BeautifulSoup解析HTML代码,并使用find_all方法查找所有的图片标签。然后,我们使用os库创建一个文件夹用于保存图片,并遍历所有的图片标签,从中获取图片链接并发送HTTP请求以下载图片。最后,我们将下载的图片保存到images文件夹中,并输出一条完成爬取的消息。
请注意,在实际使用中,您需要根据要爬取的网站结构和需要的图片数量进行调整。此外,爬取网站图片可能涉及到版权问题,请确保您的爬取行为符合法律法规。
阅读全文
相关推荐














