total_page_list = selector.xpath('//div[@class="content__pg"]/div/a/@data-page')以数组的形式存储
时间: 2023-12-16 16:03:27 浏览: 71
在Python中,列表和数组的概念有所不同。如果您想将XPath提取的"data-page"属性值以数组的形式存储,可以使用Numpy库中的array()函数,例如:
```python
import numpy as np
total_page_array = np.array(total_page_list)
```
这将把total_page_list转换为一个Numpy数组,并将其存储在total_page_array变量中。您可以像使用列表一样使用数组,但是Numpy数组提供了更多的数学运算和数学函数。
相关问题
def parse(self, response): res = Selector(response) items = RenrenchesipderItem() items['id'] = res.xpath('//div[@class="detail-wrapper"]/@data-encrypt-id').extract()[0] # 标题 items['title'] = res.xpath('//div[@class="title"]/h1/text()').extract()[0] # 客户出价 items['price'] = res.xpath('//div[@class="middle-content"]/div/p[2]/text()').extract()[0] # 市场价 items['new_car_price'] = res.xpath('//div[@class="middle-content"]/div/div[1]/span/text()').extract()[0] # 首付款 down_payment = res.xpath('//div[@class="list"]/p[@class="money detail-title-right-tagP"]/text()') # 月供 monthly_payment = res.xpath('//[@id="basic"]/div[2]/div[2]/div[1]/div[3]/div[2]/p[5]/text()') # 判断是否可以分期购买 if down_payment and monthly_payment: items['staging_info'] = [down_payment.extract()[0], monthly_payment.extract()[0]] # 服务费 items['service_fee'] = res.xpath('///div[1]/p[2]/strong/text()').extract()[0] # 服务项 items['service'] = res.xpath('//[@id="js-box-service"]/table/tr/td/table/tr/td/text()').extract() # 车辆上牌时间 里程 外迁信息 items['info'] = res.xpath('///div[2]/div[2]/div[1]/div[4]/ul/li/div/p/strong/text()').extract() # 车辆排量 items['displacement'] = \ res.xpath('//[@id="basic"]/div[2]/div[2]/div[1]/div[4]/ul/li[4]/div/strong/text()').extract()[0] # 车辆上牌城市 items['registration_city'] = res.xpath('///@licensed-city').extract()[0] # 车源号 items['options'] = \ res.xpath('//*[@id="basic"]/div[2]/div[2]/div[1]/div[5]/p/text()').extract()[0].strip().split(":")[1] # 判断是都有图片 if res.xpath('//div[@class="info-recommend"]/div/img/@src'): # 车辆图片 items['car_img'] = res.xpath('//div[@class="info-recommend"]/div/img/@src').extract()[0] # 车辆所在城市 items['city'] = res.xpath('//div[@rrc-event-scope="city"]/a[@class="choose-city"]/text()').extract()[0].strip() # 车辆颜色 items['color'] = res.xpath('//div[@class="card-table"]/table/tr/td[2]/text()').extract()[0] 解释一下每一句话
这是一个 Python 的 scrapy 爬虫程序中的一个解析函数,主要作用是从网页中提取出需要的数据并存储到 items 中。具体解释如下:
```python
def parse(self, response):
res = Selector(response) # 使用 scrapy 的 Selector 对象解析 response
items = RenrenchesipderItem() # 定义一个 items 对象用于存储数据
# 从网页中提取出 id、标题、客户出价、市场价、首付款、月供、服务费、服务项、车辆上牌时间、里程、外迁信息、车辆排量、车辆上牌城市、车源号、车辆颜色等数据
items['id'] = res.xpath('//div[@class="detail-wrapper"]/@data-encrypt-id').extract()[0]
items['title'] = res.xpath('//div[@class="title"]/h1/text()').extract()[0]
items['price'] = res.xpath('//div[@class="middle-content"]/div/p[2]/text()').extract()[0]
items['new_car_price'] = res.xpath('//div[@class="middle-content"]/div/div[1]/span/text()').extract()[0]
down_payment = res.xpath('//div[@class="list"]/p[@class="money detail-title-right-tagP"]/text()')
monthly_payment = res.xpath('//[@id="basic"]/div[2]/div[2]/div[1]/div[3]/div[2]/p[5]/text()')
if down_payment and monthly_payment:
items['staging_info'] = [down_payment.extract()[0], monthly_payment.extract()[0]]
items['service_fee'] = res.xpath('///div[1]/p[2]/strong/text()').extract()[0]
items['service'] = res.xpath('//[@id="js-box-service"]/table/tr/td/table/tr/td/text()').extract()
items['info'] = res.xpath('///div[2]/div[2]/div[1]/div[4]/ul/li/div/p/strong/text()').extract()
items['displacement'] = res.xpath('//[@id="basic"]/div[2]/div[2]/div[1]/div[4]/ul/li[4]/div/strong/text()').extract()[0]
items['registration_city'] = res.xpath('///@licensed-city').extract()[0]
items['options'] = res.xpath('//*[@id="basic"]/div[2]/div[2]/div[1]/div[5]/p/text()').extract()[0].strip().split(":")[1]
if res.xpath('//div[@class="info-recommend"]/div/img/@src'):
items['car_img'] = res.xpath('//div[@class="info-recommend"]/div/img/@src').extract()[0]
items['city'] = res.xpath('//div[@rrc-event-scope="city"]/a[@class="choose-city"]/text()').extract()[0].strip()
items['color'] = res.xpath('//div[@class="card-table"]/table/tr/td[2]/text()').extract()[0]
return items # 返回 items 对象
```
其中,Selector 对象是 scrapy 中提供的一种选择器,可以方便地从 HTML 或 XML 中提取数据。extract() 方法用于获取提取的数据,[0] 则是因为返回的是一个列表,需要取出其中的第一个元素。此外,还有一些判断语句用于处理数据缺失或判断是否存在该数据,如 if down_payment and monthly_payment: 判断是否可以分期购买。最后,将所有数据存储在 items 对象中并返回。
response = requests.get(url, headers=headers) html = response.text selector = etree.HTML(html) total_page_list = selector.xpath('//div[@class="content__pg"]/div/@data-totalpage') if len(total_page_list) > 0: total_page = total_page_list[0] print('总页数为:', total_page) else: print('未匹配到结果')解释每段代码含义
代码解释如下:
```
response = requests.get(url, headers=headers) # 发送 GET 请求,获取网页内容
html = response.text # 获取网页的 HTML 内容
selector = etree.HTML(html) # 将 HTML 文本转换成 XPath 可以解析的对象
total_page_list = selector.xpath('//div[@class="content__pg"]/div/@data-totalpage') # 使用 XPath 从 HTML 中匹配总页数信息
if len(total_page_list) > 0: # 如果匹配到了结果
total_page = total_page_list[0] # 取出总页数
print('总页数为:', total_page) # 输出总页数
else: # 如果没有匹配到结果
print('未匹配到结果') # 输出提示信息
```
具体解释如下:
1. `response = requests.get(url, headers=headers)`:使用 requests 库发送 GET 请求,获取网页内容。其中 `url` 是要获取的网页的链接,`headers` 是请求头,用于模拟浏览器发送请求。
2. `html = response.text`:获取网页的 HTML 内容,`response.text` 返回的是字符串形式的 HTML 内容。
3. `selector = etree.HTML(html)`:将 HTML 文本转换成 XPath 可以解析的对象,使用 `etree.HTML()` 方法将 HTML 内容转换成一个 Element 对象,之后就可以使用 XPath 语法来解析 HTML 内容了。
4. `total_page_list = selector.xpath('//div[@class="content__pg"]/div/@data-totalpage')`:使用 XPath 语法从 HTML 内容中匹配总页数信息,`//div[@class="content__pg"]/div/@data-totalpage` 表示匹配 `class` 属性为 `content__pg` 的 `div` 元素下的 `data-totalpage` 属性值,`@` 符号表示获取属性值。
5. `if len(total_page_list) > 0:`:如果匹配到了结果,即 `total_page_list` 非空。
6. `total_page = total_page_list[0]`:取出总页数,由于 `total_page_list` 是一个列表,因此需要使用索引 `[0]` 取出其中的第一个元素。
7. `print('总页数为:', total_page)`:输出总页数。
8. `else:`:如果没有匹配到结果。
9. `print('未匹配到结果')`:输出提示信息。
阅读全文