html_etree = etree.HTML(repones) #利用lxml解析上面爬取的html文件 html_etree = etree.HTML(repones) #过滤 li = html_etree.xpath('//*[@id="content"]/div/div[1]/ol/li') for a in li: #电影名称 name = a.xpath('./div/div[2]/div[1]/a/span[1]/text()')[0] # print (name) #链接 dy_url = a.xpath('./div/div[2]/div[1]/a/@href')[0] # print (dy_url) #评分 rating = a.xpath('./div/div[2]/div[2]/div/span[1]/@class')[0] # print (rating) rating_num = a.xpath('./div/div[2]/div[2]/div/span[2]/text()')[0] # print (rating_num) content = a.xpath('./div/div[2]/div[2]/div/span[4]/text()')[0] print (content,name,dy_url,rating,rating_num)

时间: 2024-01-28 15:04:56 浏览: 153
PDF

python lxml中etree的简单应用

根据你提供的代码,你使用了 `lxml` 库对爬取到的 HTML 内容进行解析,并从中提取了电影名称、链接、评分等信息。 首先,你使用 `etree.HTML()` 方法将 `repones`(即爬取到的 HTML 内容)传递给 `etree.HTML`,以便使用 `lxml` 解析库解析 HTML。 然后,你使用 `xpath()` 方法从解析后的 HTML 树中提取所需的信息。在这个例子中,你使用了 XPath 表达式来定位电影列表的每个 `<li>` 元素。然后,对于每个 `<li>` 元素,你使用 XPath 表达式来提取电影名称、链接、评分等信息。 最后,你使用 `print()` 函数将提取到的电影信息打印出来。 请注意,代码中的 XPath 表达式是根据具体页面结构编写的,如果你爬取的网页结构有所变化,可能需要相应调整 XPath 表达式来匹配正确的元素。
阅读全文

相关推荐

#模块导入 from selenium import webdriver from time import sleep from lxml import etree import xlwt import openpyxl #初始化 ##浏览器部分 bro = webdriver.Chrome() bro.get("https://china.nba.cn/players/stats/#!/stephen_curry") page_text = bro.page_source sleep(5) bro.quit() tree=etree.HTML(page_text) ##表格数据部分 file=xlwt.Workbook() sheet1 = file.add_sheet('sheet1',cell_overwrite_ok=True) line_per=[] #数据爬取函数准备 def score_record(x): tree_line=tree.xpath(x) line_0=[] for i in tree_line: tree_line_word=i.xpath('.//text()') for i in tree_line_word: if i.strip(): line_0.append(i.strip()) line_true=[line_0[0],line_0[18],line_0[19],line_0[20],line_0[21],line_0[22],line_0[23]] line_per.append(line_true) #爬取数据 a='/html/body/div[5]/div/div/div/div[2]/div[2]/section/div/div[2]/div[2]/div[1]/div[1]/div[3]/nba-stat-table/div/div[1]/table/thead/tr' score_record(a) for i in range(1,14): webside='/html/body/div[5]/div/div/div/div[2]/div[2]/section/div/div[2]/div[2]/div[1]/div[1]/div[3]/nba-stat-table/div/div[1]/table/tbody/tr[{}]'.format(i) score_record(webside) #保存数据 file = xlwt.Workbook() sheet1 = file.add_sheet('sheet1',cell_overwrite_ok=True) for j in range(0,14): for i in range(0,7): sheet1.write(j,i,line_per[j][i]) file.save('python结课程序.xls') #分析数据 sheet1.write(0,7,"两分出手") sheet1.write(0,8,"两分命中") wb = openpyxl.load_workbook('python结课程序.xls') sheet = wb['sheet1'] for i in range(2, 15): c_val = sheet.cell(row=i, column=3).value e_val = sheet.cell(row=i, column=5).value g_val = sheet.cell(row=i, column=7).value result = c_val - e_val - g_val sheet.cell(row=i, column=8).value = result for i in range(2, 15): b_val = sheet.cell(row=i, column=2).value d_val = sheet.cell(row=i, column=4).value f_val = sheet.cell(row=i, column=6).value result = b_val - d_val - f_val sheet.cell(row=i, column=9).value = result wb.save('python结课程序.xls')

import csv import requests from lxml import etree #定义主程序入口 if name == "main": # 定义要爬取的网页链接 url = 'https://jn.lianjia.com/zufang/pg%d' # 请求头 header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.57' } # 爬取源码数据 # 定义要爬取的数据字段 headers = ["区域", "小区名称", "户型", "面积(㎡)", "价格(元/月)"] path = "链家济南租房数据.csv" #打开CSV文件,使用csv.writer()函数创建一个csv.writer对象,用于写入CSV文件 with open(path, 'w', newline='') as f: csv_write = csv.writer(f) csv_head = ["区域", "小区名称", "户型", "面积(㎡)", "价格(元/月)"] csv_write.writerow(csv_head) # 用于循环爬取多个网页,其中range(85,101)表示需要爬取85-100页的租房信息 for num in range(85,101): # 使用字符串的format()方法将%d占位符替换成实际的页码num new_url = url.format(num) # 用request库获取网页源码数据 page_num1 = requests.get(url=new_url, headers=header) page_num1.encoding = ('utf-8') page_num = page_num1.text tree = etree.HTML(page_num) # # 使用xpath语法获取所有租房信息的父级标签对象 div_list = tree.xpath('//*[@id="content"]/div[1]/div[1]/div') with open(path, 'a', newline='') as f: # 循环处理每个租房信息的标签对象 csv_write = csv.writer(f) for div in div_list: quyu = div.xpath('./div/p[2]/a[1]//text()')[0] name = div.xpath('./div/p[2]/a[3]//text()')[0] area_text = div.xpath('./div/p[2]/text()')[4] #用来解决.split()出错 area = area_text.split()[0] if len(area_text.split()) > 0 else "" type = div.xpath('./div/p[2]/text()')[6].split()[0] place = div.xpath('./div//span/em/text()')[0] data_row = [quyu, name, type, area, place] csv_write.writerow(data_row) print("完成")改成先获取网页数爬网页数据

最新推荐

recommend-type

用python3教你任意Html主内容提取功能

本篇文章将探讨如何利用Python 3的requests、lxml等模块来实现HTML主内容的提取。首先,让我们详细了解这些关键模块的功能。 **1. requests模块** requests是一个流行的Python第三方库,专为简化HTTP请求而设计。它...
recommend-type

python的xpath获取div标签内html内容,实现innerhtml功能的方法

在Python中,可以使用`lxml`库来解析XML或HTML文档,并利用XPath进行查询。 对于获取`div`标签内的HTML内容,我们需要做的是提取出标签之间的所有内容,包括子元素、文本和它们的属性。在JavaScript中,`innerHTML`...
recommend-type

教师节主题班会.pptx

教师节主题班会.pptx
recommend-type

正整数数组验证库:确保值符合正整数规则

资源摘要信息:"validate.io-positive-integer-array是一个JavaScript库,用于验证一个值是否为正整数数组。该库可以通过npm包管理器进行安装,并且提供了在浏览器中使用的方案。" 该知识点主要涉及到以下几个方面: 1. JavaScript库的使用:validate.io-positive-integer-array是一个专门用于验证数据的JavaScript库,这是JavaScript编程中常见的应用场景。在JavaScript中,库是一个封装好的功能集合,可以很方便地在项目中使用。通过使用这些库,开发者可以节省大量的时间,不必从头开始编写相同的代码。 2. npm包管理器:npm是Node.js的包管理器,用于安装和管理项目依赖。validate.io-positive-integer-array可以通过npm命令"npm install validate.io-positive-integer-array"进行安装,非常方便快捷。这是现代JavaScript开发的重要工具,可以帮助开发者管理和维护项目中的依赖。 3. 浏览器端的使用:validate.io-positive-integer-array提供了在浏览器端使用的方案,这意味着开发者可以在前端项目中直接使用这个库。这使得在浏览器端进行数据验证变得更加方便。 4. 验证正整数数组:validate.io-positive-integer-array的主要功能是验证一个值是否为正整数数组。这是一个在数据处理中常见的需求,特别是在表单验证和数据清洗过程中。通过这个库,开发者可以轻松地进行这类验证,提高数据处理的效率和准确性。 5. 使用方法:validate.io-positive-integer-array提供了简单的使用方法。开发者只需要引入库,然后调用isValid函数并传入需要验证的值即可。返回的结果是一个布尔值,表示输入的值是否为正整数数组。这种简单的API设计使得库的使用变得非常容易上手。 6. 特殊情况处理:validate.io-positive-integer-array还考虑了特殊情况的处理,例如空数组。对于空数组,库会返回false,这帮助开发者避免在数据处理过程中出现错误。 总结来说,validate.io-positive-integer-array是一个功能实用、使用方便的JavaScript库,可以大大简化在JavaScript项目中进行正整数数组验证的工作。通过学习和使用这个库,开发者可以更加高效和准确地处理数据验证问题。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【损失函数与随机梯度下降】:探索学习率对损失函数的影响,实现高效模型训练

![【损失函数与随机梯度下降】:探索学习率对损失函数的影响,实现高效模型训练](https://img-blog.csdnimg.cn/20210619170251934.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQzNjc4MDA1,size_16,color_FFFFFF,t_70) # 1. 损失函数与随机梯度下降基础 在机器学习中,损失函数和随机梯度下降(SGD)是核心概念,它们共同决定着模型的训练过程和效果。本
recommend-type

在ADS软件中,如何选择并优化低噪声放大器的直流工作点以实现最佳性能?

在使用ADS软件进行低噪声放大器设计时,选择和优化直流工作点是至关重要的步骤,它直接关系到放大器的稳定性和性能指标。为了帮助你更有效地进行这一过程,推荐参考《ADS软件设计低噪声放大器:直流工作点选择与仿真技巧》,这将为你提供实用的设计技巧和优化方法。 参考资源链接:[ADS软件设计低噪声放大器:直流工作点选择与仿真技巧](https://wenku.csdn.net/doc/9867xzg0gw?spm=1055.2569.3001.10343) 直流工作点的选择应基于晶体管的直流特性,如I-V曲线,确保工作点处于晶体管的最佳线性区域内。在ADS中,你首先需要建立一个包含晶体管和偏置网络
recommend-type

系统移植工具集:镜像、工具链及其他必备软件包

资源摘要信息:"系统移植文件包通常包含了操作系统的核心映像、编译和开发所需的工具链以及其他辅助工具,这些组件共同作用,使得开发者能够在新的硬件平台上部署和运行操作系统。" 系统移植文件包是软件开发和嵌入式系统设计中的一个重要概念。在进行系统移植时,开发者需要将操作系统从一个硬件平台转移到另一个硬件平台。这个过程不仅需要操作系统的系统镜像,还需要一系列工具来辅助整个移植过程。下面将详细说明标题和描述中提到的知识点。 **系统镜像** 系统镜像是操作系统的核心部分,它包含了操作系统启动、运行所需的所有必要文件和配置。在系统移植的语境中,系统镜像通常是指操作系统安装在特定硬件平台上的完整副本。例如,Linux系统镜像通常包含了内核(kernel)、系统库、应用程序、配置文件等。当进行系统移植时,开发者需要获取到适合目标硬件平台的系统镜像。 **工具链** 工具链是系统移植中的关键部分,它包括了一系列用于编译、链接和构建代码的工具。通常,工具链包括编译器(如GCC)、链接器、库文件和调试器等。在移植过程中,开发者使用工具链将源代码编译成适合新硬件平台的机器代码。例如,如果原平台使用ARM架构,而目标平台使用x86架构,则需要重新编译源代码,生成可以在x86平台上运行的二进制文件。 **其他工具** 除了系统镜像和工具链,系统移植文件包还可能包括其他辅助工具。这些工具可能包括: - 启动加载程序(Bootloader):负责初始化硬件设备,加载操作系统。 - 驱动程序:使得操作系统能够识别和管理硬件资源,如硬盘、显卡、网络适配器等。 - 配置工具:用于配置操作系统在新硬件上的运行参数。 - 系统测试工具:用于检测和验证移植后的操作系统是否能够正常运行。 **文件包** 文件包通常是指所有这些组件打包在一起的集合。这些文件可能以压缩包的形式存在,方便下载、存储和传输。文件包的名称列表中可能包含如下内容: - 操作系统特定版本的镜像文件。 - 工具链相关的可执行程序、库文件和配置文件。 - 启动加载程序的二进制代码。 - 驱动程序包。 - 配置和部署脚本。 - 文档说明,包括移植指南、版本说明和API文档等。 在进行系统移植时,开发者首先需要下载对应的文件包,解压后按照文档中的指导进行操作。在整个过程中,开发者需要具备一定的硬件知识和软件开发经验,以确保操作系统能够在新的硬件上正确安装和运行。 总结来说,系统移植文件包是将操作系统和相关工具打包在一起,以便于开发者能够在新硬件平台上进行系统部署。了解和掌握这些组件的使用方法和作用是进行系统移植工作的重要基础。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【损失函数与批量梯度下降】:分析批量大小对损失函数影响,优化模型学习路径

![损失函数(Loss Function)](https://img-blog.csdnimg.cn/20190921134848621.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80Mzc3MjUzMw==,size_16,color_FFFFFF,t_70) # 1. 损失函数与批量梯度下降基础 在机器学习和深度学习领域,损失函数和批量梯度下降是核心概念,它们是模型训练过程中的基石。理解它们的基础概念对于构建