2. 爬取 https://authserver.hnca.edu.cn/authserver/login 页面所有img标签图片,保存到当前python代码的工作目录下面。 部分业务逻辑代码: soup = BeautifulSoup(html, "lxml") # 将html对象转换为BeautifulSoup对象 i = 0 # 定义i用于给下载的图片命名 for img in soup.select('img'): # 获取所有img标签对象 if img.has_attr('src'): # 判断img对象是否有src属性 with open(str(i) + ".jpg", "wb") as fd: # 以写入方式打开二进制文件 # 组装图片绝对路径,访问并写入文件 response = requests.get("https://authserver.hnca.edu.cn" + img.attrs['src']) fd.write(response.content) print('图片', i, "保存成功\n") i += 1 # i加1 else: print('写入文件成功!')
时间: 2024-02-14 19:24:19 浏览: 65
这是一个爬虫的代码示例,目的是爬取一个网页上的所有img标签图片,并保存到当前python代码的工作目录下面。其中使用了BeautifulSoup库来解析网页,通过选择器选择所有img标签对象,并判断是否有src属性,如果有则将图片保存到本地。具体步骤如下:
1.使用requests库获取网页html代码;
2.使用BeautifulSoup库将html代码转换为BeautifulSoup对象;
3.使用选择器选择所有img标签对象,并判断是否有src属性;
4.如果有src属性,则使用requests库获取图片二进制数据;
5.将图片二进制数据写入到本地文件中,文件名为数字编号;
6.循环执行步骤4和步骤5,直到所有图片都被保存到本地;
7.输出保存成功的信息。
相关问题
2. 爬取 https://authserver.hnca.edu.cn/authserver/login 页面所有img标签图片,保存到当前python代码的工作目录下面。
好的,可以使用Python的requests和BeautifulSoup库来爬取页面并保存图片。以下是示例代码:
```python
import requests
from bs4 import BeautifulSoup
import os
# 发送请求获取页面内容
url = 'https://authserver.hnca.edu.cn/authserver/login'
response = requests.get(url)
# 解析页面内容,获取所有img标签
soup = BeautifulSoup(response.text, 'html.parser')
img_tags = soup.find_all('img')
# 遍历所有img标签,下载图片并保存到本地
for img_tag in img_tags:
img_url = img_tag['src']
img_response = requests.get(img_url)
img_name = os.path.basename(img_url) # 获取图片文件名
with open(img_name, 'wb') as f:
f.write(img_response.content)
print(f'Saved {img_name} to current working directory.')
```
这段代码会将所有img标签的图片下载并保存到当前工作目录下。需要注意的是,如果页面中的图片链接是相对链接,需要将其转换为绝对链接。
使用python1. 爬取 https://authserver.hnca.edu.cn/authserver/login 页面“账号登录” tab页下form表单里面的用户名和密码输入框的name属性的值,并将结果保存到“data.txt”文件中。
好的,以下是 Python 爬虫程序的示例代码,可以满足您的需求:
```python
import requests
from bs4 import BeautifulSoup
url = "https://authserver.hnca.edu.cn/authserver/login"
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")
username_input = soup.find("input", {"name": "username"})
password_input = soup.find("input", {"name": "password"})
with open("data.txt", "w") as f:
f.write("username_input: {}\n".format(username_input["name"]))
f.write("password_input: {}".format(password_input["name"]))
```
这段代码首先使用 requests 库发送 GET 请求获取网页源代码,然后使用 BeautifulSoup 库解析 HTML DOM 树,查找名为“username”和“password”的 input 标签,并将其 name 属性的值写入 data.txt 文件中。
阅读全文