python爬虫下载图片代码
时间: 2023-07-11 14:56:50 浏览: 108
好的,以下是一个简单的 Python 爬虫下载图片的代码示例:
```python
import requests
import os
# 如果不存在目标文件夹则创建
if not os.path.exists('images'):
os.makedirs('images')
url = 'https://www.example.com/image.jpg'
response = requests.get(url)
# 获取文件名
filename = url.split('/')[-1]
# 保存图片
with open('images/' + filename, 'wb') as f:
f.write(response.content)
print('已成功下载图片:' + filename)
```
您可以将 `url` 替换为目标图片的链接。在上述示例中,我们使用了 Python 的 requests 库来发送 HTTP 请求,然后将响应的内容保存到本地文件中。请注意,您需要确保您的代码具有下载目标图片的合法性。
相关问题
python爬虫爬取图片代码
以下是一个简单的Python爬虫爬取图片的代码:
```python
import requests
from bs4 import BeautifulSoup
import os
# 获取页面内容
def get_html(url):
response = requests.get(url)
html = response.content
return html
# 解析页面内容,获取图片链接
def get_img_links(html):
soup = BeautifulSoup(html, 'html.parser')
img_links = []
for img in soup.find_all('img'):
img_link = img.get('src')
if img_link not in img_links:
img_links.append(img_link)
return img_links
# 下载图片
def download_img(img_link, folder_name):
response = requests.get(img_link)
img_name = img_link.split('/')[-1]
folder_path = f'./{folder_name}'
if not os.path.exists(folder_path):
os.makedirs(folder_path)
img_path = f'{folder_path}/{img_name}'
with open(img_path, 'wb') as f:
f.write(response.content)
print(f'{img_name} 下载完成!')
if __name__ == '__main__':
url = 'https://www.example.com'
html = get_html(url)
img_links = get_img_links(html)
for img_link in img_links:
download_img(img_link, 'images')
```
在代码中,我们使用了`requests`库发送HTTP请求获取页面内容,使用`BeautifulSoup`库解析页面内容,获取图片链接。然后我们可以通过`requests`库下载图片并保存到本地。最后,我们可以将所有的图片保存到一个名为`images`的文件夹中。
Python爬虫图片的代码
当爬取网页中的图片时,我们需要用到Python中的requests库和BeautifulSoup库,下面是一个简单的Python爬虫图片的代码示例:
``` python
import requests
from bs4 import BeautifulSoup
# 定义要爬取的URL地址
url = "https://www.example.com"
# 发送请求并获取页面内容
response = requests.get(url)
html = response.content
# 使用BeautifulSoup库解析页面内容
soup = BeautifulSoup(html, 'html.parser')
img_tags = soup.find_all('img')
# 遍历所有的图片标签,获取图片链接并下载
for img in img_tags:
img_url = img.get('src')
# 使用requests库发送请求并下载图片
img_data = requests.get(img_url).content
with open('image_name.jpg', 'wb') as handler:
handler.write(img_data)
# 下载完成提示
print("所有图片已经下载完成!")
```
这是一个简单的爬虫示例,实际情况中还需要加入错误处理、多线程下载等功能,以提高代码的鲁棒性和效率。
阅读全文