写一个python爬虫,网站是https://mooc1.chaoxing.com/mycourse/studentstudy?chapterId=712015512&courseId=232714058&clazzid=72263222&cpi=153389391&enc=252743a95a80de27534057fd4c619551&mooc2=1&openc=f1976ed657889314b52b7367b1ff3edc,保存ur中每个li的图片,存入本地文件夹
时间: 2023-08-27 18:10:26 浏览: 214
好的,这是一个爬取超星学习通课程章节中的图片并保存到本地文件夹的Python爬虫代码。请注意,这个代码并不完整,需要您根据实际情况进行修改和调整。
```python
import os
import requests
from bs4 import BeautifulSoup
url = 'https://mooc1.chaoxing.com/mycourse/studentstudy?chapterId=712015512&courseId=232714058&clazzid=72263222&cpi=153389391&enc=252743a95a80de27534057fd4c619551&mooc2=1&openc=f1976ed657889314b52b7367b1ff3edc'
# 创建本地文件夹
folder_path = './images/'
if not os.path.exists(folder_path):
os.makedirs(folder_path)
# 获取页面内容
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
# 获取所有图片链接
image_links = []
for li in soup.find_all('li'):
image_link = li.find('img')['src'] # 每个li下的图片链接
image_links.append(image_link)
# 下载图片并保存到本地
for index, image_link in enumerate(image_links):
image_name = f'image_{index}.jpg' # 图片文件名
image_path = os.path.join(folder_path, image_name) # 图片保存路径
response = requests.get(image_link)
with open(image_path, 'wb') as f:
f.write(response.content)
```
请注意,这个代码仅供参考,实际使用时需要根据具体情况进行修改和调整。同时,爬取他人网站内容可能涉及法律和道德问题,请谨慎使用。
阅读全文