Selenium 的WebDriver的page_source和requests的get()text

时间: 2024-05-19 17:15:26 浏览: 83
有什么区别? Selenium 的WebDriver的page_source获取的是浏览器渲染后的页面源代码,包含了浏览器渲染的所有内容,包括 JavaScript 动态生成的内容,因此是比较完整的页面源代码。而requests的get()方法获取的是服务器返回的 HTML 页面源代码,不包含 JavaScript 动态生成的内容。因此,如果网页中有 JavaScript 动态生成的内容,使用requests获取的页面源代码可能会不完整。
相关问题

python selenium爬虫豆瓣_使用selenium+requests爬取豆瓣小组讨论列表

好的,可以的。你需要先安装selenium和requests库,然后下载对应的浏览器驱动,比如Chrome驱动。 以下是一个简单的例子,使用selenium打开豆瓣小组讨论列表页面并获取数据: ```python import time import requests from selenium import webdriver # 设置浏览器驱动路径 driver_path = '/path/to/chromedriver' # 设置浏览器参数 options = webdriver.ChromeOptions() options.add_argument('--headless') options.add_argument('--disable-gpu') options.add_argument('--no-sandbox') # 启动浏览器 driver = webdriver.Chrome(executable_path=driver_path, options=options) # 打开网页 url = 'https://www.douban.com/group/explore' driver.get(url) # 等待页面加载 time.sleep(2) # 获取页面源码 html = driver.page_source # 关闭浏览器 driver.quit() # 使用requests库处理数据 # TODO: 解析html并获取需要的信息 ``` 在这个例子中,我们使用了Chrome浏览器,并且设置了一些参数,比如无头模式等。然后打开豆瓣小组讨论列表页面,等待页面加载完毕后,获取页面源码并关闭浏览器。最后可以使用requests库来处理页面数据,比如解析HTML并获取需要的信息。 注意:使用selenium爬虫需要注意反爬机制,避免被封IP。建议设置合理的访问时间间隔,并使用代理IP等反反爬措施。

from seleniumwire import webdriver from selenium.webdriver.common.keys import Keys from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC def login_bp(url, username, password): # 创建一个浏览器实例 options = webdriver.EdgeOptions() options.add_experimental_option('detach', True) # 打开登录页面 browser = webdriver.Edge() browser.get(url) # 找到用户名输入框并输入密码 username_input = WebDriverWait(browser, 10).until(EC.visibility_of_element_located((By.ID, 'username'))) username_input.send_keys(username) # 找到密码输入框并输入密码 password_input = WebDriverWait(browser, 10).until(EC.visibility_of_element_located((By.ID, 'password'))) password_input.send_keys(password) # 模拟回车键,提交表单 login_btn = browser.find_element(by=By.ID, value='denglub') login_btn.send_keys(Keys.ENTER) # 获取cookie信息 cookies = browser.get_cookies() print("Cookies:", cookies) # 获取响应体和载荷信息 page_source = browser.page_source current_url = browser.current_url print("Page Source:", page_source) print("Current URL:", current_url) #获取XHR值 request = browser.requests return 0 if __name__ == '__main__': # 定义目标信息 atr_url = { 'url': 'http://pfs.ikhtech.com/FAPI/login.jsp', 'username': 'zhangwei', 'password': 'zhangwei' } login_bp(atr_url['url'], atr_url['username'], atr_url['password']) 如何获取页面返回的XHR、载荷、cookie等的值

在使用`seleniumwire`库时,可以通过`seleniumwire`提供的功能来获取页面返回的XHR、载荷和cookie等值。 以下是一个示例代码,展示了如何使用`seleniumwire`来获取页面返回的XHR、载荷和cookie等值: ```python from seleniumwire import webdriver from selenium.webdriver.common.keys import Keys from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC def login_bp(url, username, password): # 创建一个带有seleniumwire的浏览器实例 options = webdriver.EdgeOptions() options.add_experimental_option('detach', True) browser = webdriver.Edge(seleniumwire_options=options) # 打开登录页面 browser.get(url) # 找到用户名输入框并输入密码 username_input = WebDriverWait(browser, 10).until(EC.visibility_of_element_located((By.ID, 'username'))) username_input.send_keys(username) # 找到密码输入框并输入密码 password_input = WebDriverWait(browser, 10).until(EC.visibility_of_element_located((By.ID, 'password'))) password_input.send_keys(password) # 模拟回车键,提交表单 login_btn = browser.find_element(by=By.ID, value='denglub') login_btn.send_keys(Keys.ENTER) # 获取cookie信息 cookies = browser.get_cookies() print("Cookies:", cookies) # 获取响应体和载荷信息 page_source = browser.page_source print("Page Source:", page_source) # 获取XHR请求信息 for request in browser.requests: if request.response: print("XHR URL:", request.url) print("XHR Response:", request.response.body) # 关闭浏览器 browser.quit() if __name__ == '__main__': # 定义目标信息 atr_url = { 'url': 'http://pfs.ikhtech.com/FAPI/login.jsp', 'username': 'zhangwei', 'password': 'zhangwei' } login_bp(atr_url['url'], atr_url['username'], atr_url['password']) ``` 在上面的代码中,首先使用`seleniumwire.Webdriver`创建了一个带有`seleniumwire`的浏览器实例。然后打开登录页面,并输入用户名和密码。 接下来,使用`browser.get_cookies()`方法获取cookie信息,并打印出来。使用`browser.page_source`获取页面的载荷信息,并打印出来。 最后,通过遍历`seleniumwire`提供的`browser.requests`列表,可以获取到所有的XHR请求信息。通过判断`request.response`是否存在,可以筛选出已经收到响应的XHR请求。然后可以打印出XHR的URL和响应内容。 希望这个示例代码对你有帮助!如果需要获取其他特定的值,请根据你的需求进行相应的修改。

相关推荐

from selenium import webdriver from selenium.webdriver.chrome.options import Options from bs4 import BeautifulSoup import time # 目标网站的 URL url = 'http://example.com/rank/list' # Chrome 浏览器配置 chrome_options = Options() chrome_options.add_argument('--disable-extensions') chrome_options.add_argument('--disable-gpu') chrome_options.add_argument('--no-sandbox') chrome_options.add_argument('--headless') chrome_options.add_argument('--disable-dev-shm-usage') # 启动 Chrome 浏览器 browser = webdriver.Chrome(options=chrome_options) # 发起第一页的请求并解析 HTML 标签 browser.get(url) time.sleep(3) # 等待 3 秒钟,等待 AJAX 加载完成 soup = BeautifulSoup(browser.page_source, 'html.parser') total_pages = soup.select('.ant-pagination-item:not(.ant-pagination-next):not(.ant-pagination-prev)')[-1]['title'] current_page = soup.select_one('.ant-pagination-item-active').text rank_list = parse_page(soup) # 发起所有页码的请求,并将结果存入列表中 for page in range(2, int(total_pages) + 1): if str(page) != current_page: # 模拟在浏览器中翻页操作 browser.execute_script(f'window.antDesignPro.current.delete("/rank/list?page={int(current_page)}")') # 删除当前页的数据 browser.execute_script(f'window.antDesignPro.current.jump("/rank/list?page={page}")') # 跳转到需要打开的页码 time.sleep(3) # 等待 3 秒钟,等待 AJAX 加载完成 soup = BeautifulSoup(browser.page_source, 'html.parser') page_data = parse_page(soup) rank_list += page_data current_page = page # 将所有分页数据合并成一个完整的 DataFrame 对象 all_data = merge_data(rank_list) # 关闭浏览器窗口 browser.quit() # 打印输出结果 print(all_data),注意:目标网站采用了 AJAX 或者 JavaScript 技术来进行分页加载数据,因此翻页时并没有刷新整个页面,也无法从html文本获得第一页以后的排名帮我修改代码,要求用到request和beautifulsoup等库,

import re import json import time import requests import datetime import pymysql import selenium from bs4 import BeautifulSoup from selenium import webdriver from selenium.webdriver.support.ui import WebDriverWait from sqlalchemy import create_engine, Column, Integer, String, Text, DateTime from sqlalchemy.orm import sessionmaker from sqlalchemy.ext.declarative import declarative_base from selenium.webdriver import Edge, EdgeOptions # 创建浏览器对象 options = EdgeOptions() options.use_chromium = True options.binary_location = r'C:\Users\邓枫林\PycharmProjects\pythonProject\edgedriver_win64\msedgedriver.exe' browser = Edge(options=options) wait = WebDriverWait(browser, 10) # 打开微博话题页面 url = 'https://weibo.com/n/%E4%B8%AD%E5%9B%BD%E9%A3%9F%E5%93%81%E5%8D%AB%E7%94%9F?from=feed&loc=at&nick=%E4%B8%AD%E5%9B%BD%E9%A3%9F%E5%93%81%E5%8D%AB%E7%94%9F&order=hot' browser.get(url) # 等待页面加载完成 wait.until(lambda driver: driver.execute_script("return document.readyState") == "complete") browser = selenium.webdriver.Edge(executable_path='C:/Users/邓枫林/PycharmProjects/pythonProject/edgedriver_win64/msedgedriver.exe') wait = selenium.webdriver.support.ui.WebDriverWait(browser, 10) # 监测页面是否包含“高校类”敏感词汇 if '高校类' in browser.page_source: # 获取原始微博 weibo = browser.find_element_by_css_selector('.WB_feed_detail .WB_text.W_f14').text # 获取转发该微博的用户昵称和转发内容 reposts = [] repost_items = browser.find_elements_by_css_selector('.list_ul .list_li') for item in repost_items: nickname = item.find_element_by_css_selector('.WB_text.W_f14').text content = item.find_element_by_css_selector('.WB_text.W_f14 + .comment_txt').text reposts.append({'nickname': nickname, 'content': content}) # 关闭浏览器 browser.quit() # 将微博和转发内容存入MySQL数据库中 Base = declarative_base() class Weibo(Base): __tablename__ = 'weibo_user' id = Column(Integer, primary_key=True) content = Column(Text) create_time = Column(DateTime) class Repost(Base): __tablename__ = 'weibo_repost' id = Column(Integer, primary_key=True) weibo_id = Column(Integer) nickname = Column(String(50)) content = Column(Text) engine = create_engine('mysql+pymysql://root:root@hostname:port/weibo?charset=utf8mb4') Session = sessionmaker(bind=engine) session = Session() now = datetime.datetime.now() weibo_obj = Weibo(content=weibo, create_time=now) session.add(weibo_obj) session.commit() for repost in reposts: repost_obj = Repost(weibo_id=weibo_obj.id, nickname=repost['nickname'], content=repost['content']) session.add(repost_obj) session.commit() session.close() else: # 关闭浏览器 browser.quit()

最新推荐

recommend-type

【水果识别】基于matlab GUI深度学习卷积神经网络CNN水果识别分类【含Matlab源码 4241期】.md

CSDN Matlab武动乾坤上传的资料均有对应的代码,代码均可运行,亲测可用,适合小白; 1、代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2019b;若运行有误,根据提示修改;若不会,私信博主; 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可私信博主或扫描博客文章底部QQ名片; 4.1 博客或资源的完整代码提供 4.2 期刊或参考文献复现 4.3 Matlab程序定制 4.4 科研合作 图像识别:表盘识别、车道线识别、车牌识别、答题卡识别、电器识别、跌倒检测、动物识别、发票识别、服装识别、汉字识别、红绿灯识别、火灾检测、疾病分类、交通标志牌识别、口罩识别、裂缝识别、目标跟踪、疲劳检测、身份证识别、人民币识别、数字字母识别、手势识别、树叶识别、水果分级、条形码识别、瑕疵检测、芯片识别、指纹识别
recommend-type

C语言快速排序算法的实现与应用

资源摘要信息: "C语言实现quickSort.rar" 知识点概述: 本文档提供了一个使用C语言编写的快速排序算法(quickSort)的实现。快速排序是一种高效的排序算法,它使用分治法策略来对一个序列进行排序。该算法由C. A. R. Hoare在1960年提出,其基本思想是:通过一趟排序将待排记录分隔成独立的两部分,其中一部分记录的关键字均比另一部分的关键字小,则可分别对这两部分记录继续进行排序,以达到整个序列有序。 知识点详解: 1. 快速排序算法原理: 快速排序的基本操作是通过一个划分(partition)操作将数据分为独立的两部分,其中一部分的所有数据都比另一部分的所有数据要小,然后再递归地对这两部分数据分别进行快速排序,以达到整个序列有序。 2. 快速排序的步骤: - 选择基准值(pivot):从数列中选取一个元素作为基准值。 - 划分操作:重新排列数列,所有比基准值小的元素摆放在基准前面,所有比基准值大的元素摆放在基准的后面(相同的数可以到任一边)。在这个分区退出之后,该基准就处于数列的中间位置。 - 递归排序子序列:递归地将小于基准值元素的子序列和大于基准值元素的子序列排序。 3. 快速排序的C语言实现: - 定义一个函数用于交换元素。 - 定义一个主函数quickSort,用于开始排序。 - 实现划分函数partition,该函数负责找到基准值的正确位置并返回这个位置的索引。 - 在quickSort函数中,使用递归调用对子数组进行排序。 4. C语言中的函数指针和递归: - 在快速排序的实现中,可以使用函数指针来传递划分函数,以适应不同的划分策略。 - 递归是实现快速排序的关键技术,理解递归的调用机制和返回值对理解快速排序的过程非常重要。 5. 快速排序的性能分析: - 平均时间复杂度为O(nlogn),最坏情况下时间复杂度为O(n^2)。 - 快速排序的空间复杂度为O(logn),因为它是一个递归过程,需要一个栈来存储递归的调用信息。 6. 快速排序的优点和缺点: - 优点:快速排序在大多数情况下都能达到比其他排序算法更好的性能,尤其是在数据量较大时。 - 缺点:在最坏情况下,快速排序会退化到冒泡排序的效率,即O(n^2)。 7. 快速排序与其他排序算法的比较: - 快速排序与冒泡排序、插入排序、归并排序、堆排序等算法相比,在随机数据下的平均性能往往更优。 - 快速排序不适合链表这种非顺序存储的数据结构,因为其随机访问的特性是排序效率的关键。 8. 快速排序的实际应用: - 快速排序因其高效率被广泛应用于各种数据处理场景,例如数据库管理系统、文件系统等。 - 在C语言中,快速排序可以用于对结构体数组、链表等复杂数据结构进行排序。 总结: 通过对“C语言实现quickSort.rar”文件的内容学习,我们可以深入理解快速排序算法的设计原理和C语言实现方式。这不仅有助于提高编程技能,还能让我们在遇到需要高效排序的问题时,能够更加从容不迫地选择和应用快速排序算法。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

ElementTree性能优化指南:如何将XML处理速度提升至极限

![ElementTree](https://blog.finxter.com/wp-content/uploads/2022/12/image-124.png) # 1. ElementTree的基本介绍与应用 ## 1.1 ElementTree简介 ElementTree是Python标准库中的XML处理模块,提供了一套完整的工具来创建、修改、解析XML数据。相比其他XML库,ElementTree具有轻量级和易用性的特点,使其成为处理XML数据的首选库。 ## 1.2 ElementTree的应用场景 ElementTree广泛应用于数据交换、配置文件处理、网页内容抓取等场景。例如
recommend-type

包含了简单的drop源和drop目标程序的完整代码,为了可以简单的访问这些文件,你仅仅需要输入下面的命令:

包含简单drop操作的源和目标程序通常涉及到数据传输、清理或者是文件管理。这里提供一个简化的Python示例,使用`shutil`库来进行文件删除操作: ```python import shutil # 定义源文件路径 source_file = "path/to/source/file.txt" # 定义目标目录(如果不存在则创建) target_directory = "path/to/target/directory" if not os.path.exists(target_directory): os.makedirs(target_directory) # 简单的
recommend-type

KityFormula 编辑器压缩包功能解析

资源摘要信息:"kityformula-editor.zip是一个压缩文件,其中包含了kityformula-editor的相关文件。kityformula-editor是百度团队开发的一款网页版数学公式编辑器,其功能类似于LaTeX编辑器,可以在网页上快速编辑和渲染数学公式。kityformula-editor的主要特点是轻量级,能够高效地加载和运行,不需要依赖任何复杂的库或框架。此外,它还支持多种输入方式,如鼠标点击、键盘快捷键等,用户可以根据自己的习惯选择输入方式。kityformula-editor的编辑器界面简洁明了,易于使用,即使是第一次接触的用户也能迅速上手。它还提供了丰富的功能,如公式高亮、自动补全、历史记录等,大大提高了公式的编辑效率。此外,kityformula-editor还支持导出公式为图片或SVG格式,方便用户在各种场合使用。总的来说,kityformula-editor是一款功能强大、操作简便的数学公式编辑工具,非常适合需要在网页上展示数学公式的场景。" 知识点: 1. kityformula-editor是什么:kityformula-editor是由百度团队开发的一款网页版数学公式编辑器,它的功能类似于LaTeX编辑器,可以在网页上快速编辑和渲染数学公式。 2. kityformula-editor的特点:kityformula-editor的主要特点是轻量级,它能够高效地加载和运行,不需要依赖任何复杂的库或框架。此外,它还支持多种输入方式,如鼠标点击、键盘快捷键等,用户可以根据自己的习惯选择输入方式。kityformula-editor的编辑器界面简洁明了,易于使用,即使是第一次接触的用户也能迅速上手。 3. kityformula-editor的功能:kityformula-editor提供了丰富的功能,如公式高亮、自动补全、历史记录等,大大提高了公式的编辑效率。此外,它还支持导出公式为图片或SVG格式,方便用户在各种场合使用。 4. kityformula-editor的使用场景:由于kityformula-editor是基于网页的,因此它非常适合需要在网页上展示数学公式的场景,例如在线教育、科研报告、技术博客等。 5. kityformula-editor的优势:相比于传统的LaTeX编辑器,kityformula-editor的优势在于它的轻量级和易用性。它不需要用户有深厚的LaTeX知识,也无需安装复杂的编辑环境,只需要一个浏览器就可以进行公式的编辑和展示。 6. kityformula-editor的发展前景:随着在线教育和科研的普及,对于一款轻量级且功能强大的数学公式编辑器的需求将会越来越大。因此,kityformula-editor有着广阔的市场前景和发展空间。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

ElementTree实战秘籍:解析大型XML文件的高级技巧

![ElementTree实战秘籍:解析大型XML文件的高级技巧](https://techcommunity.microsoft.com/t5/image/serverpage/image-id/215184i30CAB1E9BDD6ACFE/image-size/large?v=v2&px=999) # 1. ElementTree库概述 ## 概述 ElementTree是Python标准库中的XML处理模块,它提供了简单而强大的API来进行XML数据的解析、创建、查询和修改。它的设计灵感来源于Java中的JDOM,旨在提供更符合Python风格的XML处理方式。ElementTree
recommend-type

display: flex,两个div在一行一个占20%一个占80%

在CSS中,`display: flex;` 是一种用于创建弹性布局的属性,它使得元素可以响应容器空间的变化,并允许它们在其父级内轻松地对齐和排列。如果你想让两个 `div` 元素在一行上分别占据20%和80%的宽度,你可以这样做: ```html <style> .container { display: flex; /* 如果父元素不是固定宽度,可以使用 'flex-wrap: wrap;' 防止溢出 */ flex-wrap: wrap; } .box1 { width: calc(20% - 10px); /* 减去一些边距或填充来避免边距重叠 */ } .box
recommend-type

离线搭建Kubernetes 1.17.0集群教程与资源包分享

资源摘要信息:"kubeadm安装k8s-1.17.0离线资源" 本资源包提供了在CentOS 7环境下使用kubeadm工具离线安装Kubernetes集群的全部所需内容。Kubernetes(简称k8s)是一个开源的容器编排平台,用于自动化部署、扩展和管理容器化的应用程序。kubeadm是Kubernetes官方提供的一个工具集,可以简化集群的安装和初始化过程。 Kubernetes版本为1.17.0,是一个稳定版的Kubernetes,适合用于生产环境部署。资源包涵盖了集群搭建过程中需要的所有组件,包括但不限于以下几个重要组件: 1. Docker:作为容器运行时,用于创建、管理和运行容器化的应用程序。是构建和运行Kubernetes集群的基础组件之一。 2. kubeadm:Kubernetes官方提供的部署工具,通过它可以快速、容易地安装和管理Kubernetes集群。 3. kubectl:Kubernetes的命令行工具,通过它可以与Kubernetes集群交互,包括部署应用程序、检查资源状态、故障排查等。 4. kubelet:运行在所有集群节点上的组件,它确保容器运行在Pod中。 5. flannel:是一个网络插件,负责为集群提供网络连通性,通常是实现Pod网络的关键组件。 6. dashboard:Kubernetes的Web控制台,提供了一个可视化的界面来管理集群和应用程序。 资源包中包含的文件结构大致如下: - 安装脚本:可能包括初始化集群的脚本,安装上述组件的自动化脚本等。 - 镜像包:由于是离线安装,因此包含了kubeadm、kubelet、kubernetes-dashboard等组件的镜像文件。 - yaml文件:这是Kubernetes定义资源的描述文件,包括部署应用、服务、Pod等的定义。在本资源包中,可能包含了一些基础配置的yaml文件,或者kubeadm初始化集群时需要使用的配置文件。 - 离线宝:可能是指预先制作好的二进制安装包,包含了上述所有软件的离线安装包。 使用本资源包可以解决网络受限环境下部署Kubernetes集群的问题。操作者可以通过运行安装脚本,无需网络连接即可完成集群的搭建。这样的部署方式适合于企业内部网络环境,或者需要符合当地法规要求不允许外部互联网接入的场景。 确保在使用该资源包之前,你已经理解了Kubernetes的基本概念和架构,以及kubeadm的工作原理。同时,由于是离线安装,需要在一台拥有足够资源的计算机上准备好所有必要的离线资源包,并且确保所有节点能够访问这些资源。在集群搭建完成后,还需要对集群进行适当的配置和优化以满足实际的工作需求。 总之,这份资源包为希望通过kubeadm进行离线安装Kubernetes的用户提供了极大的便利,降低了部署过程中的复杂度,并确保了整个过程的可控性和可重复性。