怎么获取当当网的图片并保存
时间: 2023-08-04 16:32:08 浏览: 156
获取当当网的图片并保存,可以按照以下步骤操作:
1. 首先,在当当网找到想要获取的图片。
2. 鼠标右键点击图片,选择“复制图片地址”。
3. 打开浏览器,粘贴刚才复制的图片地址到地址栏中,按下回车键。
4. 图片会在浏览器中显示出来,右键点击图片,选择“保存图片”。
5. 在弹出的对话框中选择保存路径和文件名,点击“保存”即可。
需要注意的是,获取别人的图片需要遵守相关法律法规,不得侵犯他人的知识产权。
相关问题
怎么用Python获取当当网中的图片
使用Python获取当当网中的图片可以通过以下步骤实现:
1. 首先,安装Python的requests和BeautifulSoup库。可以使用以下命令进行安装:
```
pip install requests
pip install beautifulsoup4
```
2. 导入requests和BeautifulSoup库。
```
import requests
from bs4 import BeautifulSoup
```
3. 使用requests库发送HTTP请求获取当当网的HTML页面。
```
url = 'https://search.dangdang.com/?key=%B6%F9%BB%FA%D1%DB%D6%B7&act=input'
response = requests.get(url)
```
4. 使用BeautifulSoup库解析HTML页面。
```
soup = BeautifulSoup(response.text, 'html.parser')
```
5. 找到目标图片的标签,并获取图片地址。
```
img_tag = soup.find('img', {'class': 'pic'})
img_url = img_tag['src']
```
6. 使用requests库下载图片并保存到本地。
```
img_response = requests.get(img_url)
with open('dangdang.jpg', 'wb') as f:
f.write(img_response.content)
```
完整代码示例:
```
import requests
from bs4 import BeautifulSoup
url = 'https://search.dangdang.com/?key=%B6%F9%BB%FA%D1%DB%D6%B7&act=input'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
img_tag = soup.find('img', {'class': 'pic'})
img_url = img_tag['src']
img_response = requests.get(img_url)
with open('dangdang.jpg', 'wb') as f:
f.write(img_response.content)
```
需要注意的是,获取别人的图片需要遵守相关法律法规,不得侵犯他人的知识产权。
当当网爬虫保存到本地
以下是一个将当当网的书名、链接、价格和评论数爬取并保存到本地的爬虫示例:
```python
import requests
from lxml import etree
import csv
# 定义爬取函数
def crawl_dangdang():
url = "http://search.dangdang.com/?key=python&act=input&page_index=1"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
}
response = requests.get(url, headers=headers)
html = response.text
# 使用lxml解析网页源码
tree = etree.HTML(html)
# 获取书名、链接、价格和评论数
book_names = tree.xpath('//ul[@class="bigimg"]/li//a[@class="pic"]/@title')
book_links = tree.xpath('//ul[@class="bigimg"]/li//a[@class="pic"]/@href')
book_prices = tree.xpath('//ul[@class="bigimg"]/li//p[@class="price"]/span[@class="search_now_price"]/text()')
book_comments = tree.xpath('//ul[@class="bigimg"]/li//p[@class="search_star_line"]/a/text()')
# 将数据写入CSV文件
with open('books.csv', 'w', encoding='utf-8', newline='') as csvfile:
writer = csv.writer(csvfile)
writer.writerow(['书名', '链接', '价格', '评论数'])
for i in range(len(book_names)):
writer.writerow([book_names[i], book_links[i], book_prices[i], book_comments[i]])
# 调用爬取函数
crawl_dangdang()
```
这个爬虫会将爬取到的书名、链接、价格和评论数保存到名为`books.csv`的CSV文件中。
阅读全文