1、获取网页的源码,保存到gugong_index.html文件中; 2、任意5张图抓取到本地,并命名为1.jpg、2jpg、3.jpg、4.jpg、5.jpg。
时间: 2024-09-13 07:16:15 浏览: 39
要完成您的要求,我们可以使用Python语言,并借助于几个库来实现您的需求:`requests`用于获取网页的源码,`BeautifulSoup`用于解析网页(如果需要),以及`os`和`shutil`等标准库来处理文件的保存和下载图片。
以下是完成这些任务的步骤和代码示例:
1. 获取网页的源码并保存到`gugong_index.html`文件中:
```python
import requests
# 指定要抓取的网页URL
url = 'http://www.example.com'
# 发起请求获取网页内容
response = requests.get(url)
# 检查请求是否成功
if response.status_code == 200:
# 将获取的网页源码保存到文件中
with open('gugong_index.html', 'w', encoding='utf-8') as file:
file.write(response.text)
else:
print('请求网页失败,状态码:', response.status_code)
```
2. 抓取任意5张图片并保存到本地,命名为`1.jpg`、`2.jpg`、`3.jpg`、`4.jpg`、`5.jpg`:
```python
import os
# 假设我们已经有了一个包含图片URLs的列表
image_urls = ['http://www.example.com/image1.jpg',
'http://www.example.com/image2.jpg',
'http://www.example.com/image3.jpg',
'http://www.example.com/image4.jpg',
'http://www.example.com/image5.jpg']
# 确保保存图片的目录存在
os.makedirs('downloaded_images', exist_ok=True)
# 下载并保存图片
for i, image_url in enumerate(image_urls):
image_name = f"{i + 1}.jpg"
image_response = requests.get(image_url)
if image_response.status_code == 200:
# 保存图片到指定路径
with open(os.path.join('downloaded_images', image_name), 'wb') as image_file:
image_file.write(image_response.content)
else:
print(f'下载图片失败,URL: {image_url}, 状态码: {image_response.status_code}')
```
请注意,上述代码中图片下载的部分假定您已经有了图片的URLs。如果您需要从实际网页中提取图片URLs,那么您需要使用`BeautifulSoup`解析HTML,并找到图片标签的`src`属性。
阅读全文