利用requests 下载图片
时间: 2023-04-01 09:01:36 浏览: 97
您可以使用 Python 的 requests 库来下载图片。您可以使用以下代码:
```python
import requests
url = "https://example.com/image.jpg"
response = requests.get(url)
with open("image.jpg", "wb") as f:
f.write(response.content)
```
请注意,您需要将 `url` 替换为您要下载的图片的 URL,并将 `image.jpg` 替换为您要保存图片的文件名。
相关问题
利用 requests 库采集网站中前 2000 部电影的海报图片、电影的名字和评分。
首先需要安装 requests 库,可以使用 "pip install requests" 安装。
然后可以使用 requests.get() 方法来获取网页的 HTML 源代码,再使用 BeautifulSoup 库解析 HTML 源代码,提取出电影的海报图片、电影名字和评分。
举个例子:
```
import requests
from bs4 import BeautifulSoup
url = "http://example.com/movies"
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
# 提取电影海报图片
posters = soup.find_all('img', class_='poster')
for poster in posters:
print(poster['src'])
# 提取电影名字
names = soup.find_all('h2', class_='name')
for name in names:
print(name.text)
# 提取电影评分
ratings = soup.find_all('span', class_='rating')
for rating in ratings:
print(rating.text)
```
在这个例子中,我们假设网站上的电影海报图片都有一个 class 为 "poster" 的 `img` 标签,电影名字都有一个 class 为 "name" 的 `h2` 标签,电影评分都有一个 class 为 "rating" 的 `span` 标签。
最后,可以使用 requests.get() 方法下载图片, 并保存到本地。
注意: 如果网站有反爬虫机制,可能需要设置headers信息来伪装成浏览器访问.
利用模块requests和BeautifulSoup获取彼岸图网站的4K游戏高清图片
利用Python的requests库和BeautifulSoup库来抓取彼岸图网站的4K游戏高清图片,可以分为以下几个步骤:
1. **导入库**:
```python
import requests
from bs4 import BeautifulSoup
import os
```
2. **发送请求**:
使用`requests.get()`函数发送GET请求到彼岸图的图片链接页面。例如,假设你需要访问的游戏类别页URL是`https://www.bilibili.com/gamelist`。
```python
url = 'https://www.example.com/game_4k_images' # 请替换为你需要的实际链接
response = requests.get(url)
```
3. **解析HTML**:
使用BeautifulSoup解析返回的HTML内容,找到包含图片信息的部分。
```python
soup = BeautifulSoup(response.text, 'html.parser')
image_links = soup.find_all('img', {'class': 'game-image-4k'}) # 根据实际HTML结构调整选择器
```
4. **下载图片**:
遍历找到的图片链接,保存到本地文件。
```python
if not os.path.exists('game_images'):
os.makedirs('game_images')
for link in image_links:
img_url = link['src']
response_img = requests.get(img_url)
with open(os.path.join('game_images', os.path.basename(img_url)), 'wb') as f:
f.write(response_img.content)
```
5. **注意事项**:
- 确保遵守网站的robots.txt规则,尊重版权并避免过度频繁的请求可能导致封IP。
- 如果网站使用了JavaScript加载图片,以上方法可能无法获取,这时可能需要使用Selenium等工具。
阅读全文