如何通过编写python程序,爬取猫和狗的图片各100张并再在本地创建两个文件夹分别为cat和dog,将图片存入到文件夹
时间: 2024-06-10 07:05:04 浏览: 217
中?
您可以使用 Python 的 requests 库和 BeautifulSoup 库来爬取猫和狗的图片。具体步骤如下:
1. 导入需要用到的库:requests 和 BeautifulSoup。
```python
import requests
from bs4 import BeautifulSoup
```
2. 设置要爬取的网站 URL,这里以百度图片搜索猫和狗为例。
```python
cat_url = "https://image.baidu.com/search/index?tn=baiduimage&word=cat"
dog_url = "https://image.baidu.com/search/index?tn=baiduimage&word=dog"
```
3. 定义函数爬取图片并保存到本地。
```python
def crawl_and_save_images(url, folder_name):
# 发送请求
response = requests.get(url)
# 解析 HTML
soup = BeautifulSoup(response.text, "html.parser")
# 找到所有的图片链接
img_tags = soup.find_all("img")
# 创建文件夹
import os
if not os.path.exists(folder_name):
os.mkdir(folder_name)
# 下载图片并保存到本地
for i, img_tag in enumerate(img_tags):
img_url = img_tag["src"]
if img_url.startswith("http"):
# 发送请求
img_response = requests.get(img_url)
# 保存到本地
with open(os.path.join(folder_name, f"{i}.jpg"), "wb") as f:
f.write(img_response.content)
print(f"Successfully crawled {len(img_tags)} images and saved to {folder_name}.")
```
4. 调用函数爬取猫和狗的图片并保存到本地。
```python
crawl_and_save_images(cat_url, "cat")
crawl_and_save_images(dog_url, "dog")
```
这样,您就可以在本地看到两个文件夹 cat 和 dog,每个文件夹中都有 100 张猫或狗的图片了。
阅读全文