写一段python程序能接受至少2个网址的输入,并使用urllib模块从这些提供的网址上(2)下载20张以上包含猫、狗、熊猫等动物图片,,并保存在文件夹
时间: 2024-05-04 13:21:21 浏览: 80
这里是使用Python的Requests和BeautifulSoup模块来实现这个功能的代码示例:
```python
import requests
from bs4 import BeautifulSoup
import os
# 输入两个网址
url1 = input("请输入第一个网址:")
url2 = input("请输入第二个网址:")
# 创建图片文件夹
if not os.path.exists('animal_pics'):
os.makedirs('animal_pics')
# 计数器
count = 0
# 处理每个网址
for url in [url1, url2]:
# 发送请求
response = requests.get(url)
# 解析HTML内容
soup = BeautifulSoup(response.content, 'html.parser')
# 获取所有图片标签
img_tags = soup.find_all('img')
# 遍历图片标签
for img in img_tags:
# 获取图片链接
img_url = img.get('src')
# 判断链接是否以'http'开头
if img_url.startswith('http'):
# 发送请求
img_response = requests.get(img_url)
# 保存图片
with open(f'animal_pics/{count}.jpg', 'wb') as f:
f.write(img_response.content)
count += 1
print(f'成功下载了{count}张动物图片!')
```
在这个程序中,我们首先输入了两个网址,然后创建了一个名为`animal_pics`的文件夹来存储下载的图片。接着,我们使用Requests模块发送请求并使用BeautifulSoup模块解析HTML内容。我们遍历所有图片标签,并获取它们的链接。如果链接以`http`开头,我们就发送请求并将响应内容写入到文件中。最后,我们计算下载的图片数量并输出。
阅读全文