使用requests库爬取图片
时间: 2023-10-23 08:48:13 浏览: 41
以下是使用requests库爬取图片的代码示例:
```python
import requests
import os
url = 'https://www.example.com/image.jpg'
response = requests.get(url)
if response.status_code == 200:
with open(os.path.basename(url), 'wb') as f:
f.write(response.content)
print('Image saved successfully.')
else:
print('Failed to fetch image.')
```
这段代码首先定义了要爬取的图片的URL,然后使用requests库发送GET请求获取图片。如果响应状态码为200,则将响应内容写入本地文件并打印成功信息,否则打印失败信息。其中`os.path.basename(url)`可以获取URL中的文件名,用于保存本地文件。
相关问题
requests爬取图片
使用requests库可以方便地爬取图片。通过requests.get(url)方法可以获取到图片的二进制数据,然后可以使用with open()语句将图片保存到本地。以下是一个使用requests爬取图片的示例代码:
```python
import requests
def download_image(url, save_path):
response = requests.get(url)
with open(save_path, 'wb') as f:
f.write(response.content)
download_image('https://example.com/image.jpg', 'image.jpg')
```
在这个示例中,我们定义了一个`download_image`函数,该函数接收图片的URL和保存路径作为参数。使用requests.get方法获取图片的二进制数据,然后使用with open语句打开文件并将二进制数据写入文件中,从而实现图片的保存。
请注意,以上示例仅展示了如何使用requests库爬取图片。在实际应用中,你可能需要结合其他技术,如解析网页获取图片URL等来完善你的爬虫。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* [16-python爬虫之Requests库爬取海量图片](https://blog.csdn.net/bigzql/article/details/109007633)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *3* [python爬虫之使用requests进行图片爬取](https://blog.csdn.net/qq_44159028/article/details/120560451)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
用bs4和requests库爬取优美图库
以下是使用Python的requests和BeautifulSoup库爬取优美图库的示例代码:
```python
import requests
from bs4 import BeautifulSoup
url = 'https://www.umei.cc/meinvtupian/'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
for img in soup.find_all('img'):
print(img.get('src'))
```
首先,我们定义了要爬取的网址,并使用requests库向该网址发送GET请求。然后,我们将响应内容传递给BeautifulSoup对象进行解析。
在这个例子中,我们使用了soup.find_all('img')来找到网页中所有的图片标签,然后使用img.get('src')获取每个图片标签中的src属性值(即图片链接)。
最后,我们可以将这些链接打印出来,或使用其他方法进行进一步处理。