如何用Python编写一个爬取网上图片并保存在电脑D盘的代码

时间: 2023-08-31 14:25:36 浏览: 110
### 回答1: 首先,需要安装相关的库,如requests和bs4。接着,可以编写以下代码实现爬取图片并保存在本地: ``` import requests from bs4 import BeautifulSoup # 爬取网页的图片地址 def get_image_urls(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') image_tags = soup.find_all('img') urls = [img.get('src') for img in image_tags] return urls # 保存图片 def save_images(urls): for url in urls: response = requests.get(url) with open('D:/' + url.split("/")[-1], 'wb') as f: f.write(response.content) # 爬取图片 url = "https://www.example.com" # 输入需要爬取图片的网页地址 image_urls = get_image_urls(url) save_images(image_urls) ``` 这段代码中,`get_image_urls`函数用于爬取图片的地址,`save_images`函数用于将图片保存到本地。将需要爬取的网页地址替换为实际的地址,运行代码即可。 ### 回答2: 要用Python编写一个爬取网上图片并保存在电脑D盘的代码,首先需要导入以下模块:requests、os、random和time。然后,可以按照以下步骤编写代码: 1. 设定目标图片的URL地址,可以是单个或多个URL地址。 2. 使用requests模块的get()方法发送HTTP请求,获取图片的二进制数据。 3. 创建一个文件夹来保存图片,可以使用os模块的mkdir()方法。 4. 使用os模块的chdir()方法切换到D盘的路径。 5. 使用open()函数打开文件,使用'wb'模式(二进制写入模式)。 6. 使用文件对象的write()方法将图片的二进制数据写入到文件中。 7. 关闭文件。 8. 重复步骤2到步骤7,直到所有的图片都被爬取并保存。 下面是一个简单的示例代码: ``` import requests import os import random import time # 目标图片URL地址 urls = ['https://example.com/image1.jpg', 'https://example.com/image2.jpg', 'https://example.com/image3.jpg'] # 创建保存图片的文件夹 os.mkdir('D:/images') # 切换到D盘路径 os.chdir('D:/') for url in urls: # 发送HTTP请求,获取图片的二进制数据 response = requests.get(url) # 生成随机的文件名 filename = f'image_{random.randint(1, 10000)}.jpg' # 使用'wb'模式打开文件,写入二进制数据 with open(f'images/{filename}', 'wb') as file: file.write(response.content) # 随机休眠几秒,以免给服务器带来过大压力 time.sleep(random.randint(1, 5)) print('图片爬取完成并保存在D盘的images文件夹中。') ``` 请注意,这只是一个简单的示例代码,实际需要根据具体的需求进行修改和改进,如增加异常处理、多线程等。 ### 回答3: 要用Python编写一个爬取网上图片并保存在电脑D盘的代码,可以使用requests和os库来实现。 首先,需要导入requests和os库: ``` import requests import os ``` 接下来,定义一个函数用于下载图片: ```python def download_image(url, save_path): response = requests.get(url) if response.status_code == 200: with open(save_path, 'wb') as f: f.write(response.content) print("图片保存成功!") else: print("图片下载失败!") ``` 然后,定义一个函数用于获取网页的图片链接: ```python def get_image_urls(url): response = requests.get(url) if response.status_code == 200: image_urls = [img['src'] for img in response.content.find_all('img')] return image_urls else: print("获取图片链接失败!") return [] ``` 最后,编写主函数来实现整个爬取和保存图片的过程: ```python def main(): url = "http://example.com" # 替换成你要爬取图片的网页链接 save_dir = "D:\\images" # 替换成你想保存图片的目录 # 创建保存图片的目录 if not os.path.exists(save_dir): os.mkdir(save_dir) # 获取图片链接 image_urls = get_image_urls(url) # 依次下载并保存图片 for i, image_url in enumerate(image_urls): file_name = f"image_{i}.jpg" # 图片文件名 save_path = os.path.join(save_dir, file_name) download_image(image_url, save_path) if __name__ == "__main__": main() ``` 这样,通过运行主函数,就可以爬取指定链接的图片,并保存在电脑D盘的指定目录中。注意替换代码中的网页链接和保存目录为你自己的目标网址和路径。

相关推荐

最新推荐

recommend-type

Python爬取数据保存为Json格式的代码示例

今天小编就为大家分享一篇关于Python爬取数据保存为Json格式的代码示例,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
recommend-type

Python爬虫进阶之多线程爬取数据并保存到数据库

今天刚看完崔大佬的《python3网络爬虫开发实战》,顿时觉得自己有行了,准备用appium登录QQ爬取列表中好友信息,接踵而来的是一步一步的坑,前期配置无数出错,安装之后连接也是好多错误,把这些错误解决之后,找APP...
recommend-type

Python爬取数据并实现可视化代码解析

主要介绍了Python爬取数据并实现可视化代码解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

Python requests30行代码爬取知乎一个问题的所有回答

Python requests30行代码爬取知乎一个问题的所有回答 之前学习了Python的requests爬虫一直想找机会自己练习下,正好作为一个大学生平时知乎看的也不少,那就爬取知乎吧,先上源码和效果图(我找的是随便一个热门问题...
recommend-type

Python selenium爬取微信公众号文章代码详解

主要介绍了Python selenium爬取微信公众号历史文章代码详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

2. 通过python绘制y=e-xsin(2πx)图像

可以使用matplotlib库来绘制这个函数的图像。以下是一段示例代码: ```python import numpy as np import matplotlib.pyplot as plt def func(x): return np.exp(-x) * np.sin(2 * np.pi * x) x = np.linspace(0, 5, 500) y = func(x) plt.plot(x, y) plt.xlabel('x') plt.ylabel('y') plt.title('y = e^{-x} sin(2πx)') plt.show() ``` 运行这段
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。