for row in table_rows: data = [] for cell in row.find_all('td'): text = cell.text.strip() if text.isalpha(): data.append(text) if data: data_list.append(data) print(data_list) sql = 'insert into dbo.Table_1(project,address,developer,date) values(%s,%s,%s,%s) '

时间: 2024-02-02 18:02:26 浏览: 31
这段代码看起来是从HTML表格中提取数据,并将数据插入到SQL Server表dbo.Table_1中。具体来说,代码首先遍历表格的每一行,然后对于每一行,它找到所有的单元格(td标签),并将单元格中的文本内容去掉前后空格后存储到一个列表中。如果列表不为空,就将列表中的数据插入到SQL Server表dbo.Table_1中。其中,数据的插入是通过使用参数化查询来实现的,避免了SQL注入的风险。
相关问题

import requests from bs4 import BeautifulSoup from openpyxl import Workbook url = 'http://124.95.133.164/work/xjlp/new_building.jsp' response = requests.get(url) soup = BeautifulSoup(response.content, 'html.parser') table = soup.select_one('table.table') rows = table.select('tr') workbook = Workbook() sheet = workbook.active for row in rows: cells = row.select('td') if len(cells) > 0: values = [cell.text.strip() for cell in cells] sheet.append(values) workbook.save('data.xlsx')workbook = Workbook() sheet = workbook.active for row in rows: cells = row.select('td') if len(cells) > 0: values = [cell.text.strip() for cell in cells] sheet.append(values) workbook.save('data.xlsx')这段代码报错NoneType' object has no attribute 'select'怎么改

根据你提供的代码,报错出现在以下这段代码中: ``` table = soup.select_one('table.table') rows = table.select('tr') ``` 这个错误通常出现在soup.select_one()没有找到任何元素时。当无法找到匹配的元素时,select_one()方法返回None,因此当你尝试对其调用select()方法时,就会出现"NoneType' object has no attribute 'select'"的错误。 为了解决这个问题,你需要确保在调用select()方法之前,已经成功地找到了匹配的元素。以下是一种可能的解决方法: ``` table = soup.find('table', {'class': 'table'}) if table: rows = table.find_all('tr') # rest of the code else: print("Table not found") ``` 在这个解决方案中,我们使用了BeautifulSoup的find()方法来寻找class为"table"的table元素。如果找到了这个元素,我们就可以继续使用find_all()方法来找到所有的tr元素。如果没有找到这个元素,我们就可以输出一条错误信息。 你可以根据自己的需求,使用类似的方法来解决这个问题。

import requests from bs4 import BeautifulSoup from openpyxl import Workbook # 发起HTTP请求获取网页内容 url = 'http://yjszs.hfut.edu.cn/2023/0505/c13524a291829/page.htm' # 将此处替换为你要爬取的网页URL response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML soup = BeautifulSoup(html, 'html.parser') # 创建一个Excel工作簿和工作表 workbook = Workbook() sheet = workbook.active # 查找表格元素并将其写入Excel表格 table = soup.find('table') # 假设表格是通过<table>标签定义的 rows = table.find_all('tr') # 查找所有行 for row in rows: cells = row.find_all('td') # 查找当前行的所有单元格 row_data = [] for cell in cells: row_data.append(cell.text) # 提取单元格文本内容 sheet.append(row_data) # 将一行数据写入Excel表格 # 保存Excel文件 workbook.save('table.xlsx') # 将此处替换为你想要保存的文件名和路径

你的代码看起来几乎没有问题,只是需要做一些小的修改。首先,你需要确保安装了 `requests`、`beautifulsoup4` 和 `openpyxl` 这三个库。其次,你需要将 `url` 变量替换为你要爬取的网页的正确地址。最后,你需要将保存的文件名和路径替换为你想要的名称和路径。 ```python import requests from bs4 import BeautifulSoup from openpyxl import Workbook # 发起HTTP请求获取网页内容 url = 'http://yjszs.hfut.edu.cn/2023/0505/c13524a291829/page.htm' # 将此处替换为你要爬取的网页URL response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML soup = BeautifulSoup(html, 'html.parser') # 创建一个Excel工作簿和工作表 workbook = Workbook() sheet = workbook.active # 查找表格元素并将其写入Excel表格 table = soup.find('table') rows = table.find_all('tr') for row in rows: cells = row.find_all('td') row_data = [] for cell in cells: row_data.append(cell.text.strip()) # 使用 strip() 去除单元格文本中的空白字符 sheet.append(row_data) # 保存Excel文件 workbook.save('table.xlsx') # 将此处替换为你想要保存的文件名和路径 ``` 希望这能帮到你!如果还有其他问题,请随时提问。

相关推荐

最新推荐

recommend-type

2024嵌入式面试资料FreeRTOS基本使用

2024嵌入式面试资料FreeRTOS基本使用提取方式是百度网盘分享地址
recommend-type

面向对象程序设计题目集

仅提供示例代码
recommend-type

基于Selenium的Java爬虫实战(内含谷歌浏览器Chrom和Chromedriver版本116.0.5796.0)

资源包括: 1.Java爬虫实战代码 2.selenium学习笔记 3.代码演示视频 4.谷歌浏览器chrom116.0.5796.0 chrome-linux64.zip chrome-mac-arm64.zip chrome-mac-x64.zip chrome-win32.zip chrome-win64.zip 5.谷歌浏览器驱动器Chromedriver116.0.5796.0 chromedriver-linux64.zip chromedriver-mac-arm64.zip chromedriver-mac-x64.zip chromedriver-win32.zip chromedriver-win64.zip 特别说明:Chrome 为测试版(不会自动更新) 仅适用于自动测试。若要进行常规浏览,请使用可自动更新的标准版 Chrome。)
recommend-type

pycharm的使用技巧

PyCharm官网本身并不直接提供使用技巧,但PyCharm作为一款强大的Python集成开发环境(IDE),确实有许多实用的使用技巧可以帮助开发者更高效地进行编程。以下是一些常用的PyCharm使用技巧,供您参考: 设置代码字体和界面文字大小: 进入File > Settings(或使用Ctrl+Alt+S快捷键)。 在搜索框中输入“font”找到字体设置。 在“Font”下设置代码字体大小,建议18或20。 如需调整菜单界面文字大小,进入“Appearance”并勾选“Use custom font”,然后设置大小。 快速多行注释或取消注释: 选中多行代码,按Ctrl+/进行多行代码的注释或取消注释。 代码格式化: 使用Ctrl+Alt+L快捷键自动格式化代码,提高代码可读性。 快速修改变量或类名: 选中需要重新命名的变量或类名,右键选择Refactor > Rename,进行全局修改。 快速查找变量、函数等: 使用Ctrl+F快捷键调出查找框,输入关键字进行查找。 更改编辑器字体: 除了在“Settings”中设置外,还可以直接在“Preferences” > “Editor”
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB正态分布协方差分析:揭示正态分布变量之间的协方差

![MATLAB正态分布协方差分析:揭示正态分布变量之间的协方差](https://site.cdn.mengte.online/official/2021/11/20211128213137293.png) # 1. 正态分布概述 正态分布,又称高斯分布,是统计学中最重要的连续概率分布之一。它广泛应用于自然科学、社会科学和工程领域。 正态分布的概率密度函数为: ``` f(x) = (1 / (σ√(2π))) * exp(-(x - μ)² / (2σ²)) ``` 其中: - μ:正态分布的均值 - σ:正态分布的标准差 - π:圆周率 正态分布具有以下特性: - 对称性:
recommend-type

我正在开发一款个人碳足迹计算app,如何撰写其需求分析文档,请给我一个范例

为了更全面、清晰地定义个人碳足迹计算app的需求,需求分析文档应该包含以下内容: 1.项目简介:对该app项目的概述及目标进行说明。 2.用户分析:包括目标用户群、用户需求、行为等。 3.功能需求:对app的基本功能进行定义,如用户登录、数据录入、数据统计等。 4.非功能需求:对使用app的性能和质量等进行定义,如界面设计、数据安全、可扩展性等。 5.运行环境:包括app的开发环境和使用环境。 下面是一个范例: 需求分析文档 1. 项目简介 该app项目旨在为用户提供一款方便、易用、可定制的个人碳足迹计算平台,以促进环保和可持续性发展。 2. 用户分析 目标用户群:全球关
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依