import os from bs4 import BeautifulSoup import re import csv import pandas as pd # 指定文件夹路径 folder_path = "C:/Users/test/Desktop/DIDItest" # 正则表达式模式 pattern = r'<body>(.*?)<\/body>' # 创建CSV文件并写入表头 # CSV文件路径 csv_file = 'path/to/your/csv/file.csv' csv_file = "output.csv" # 遍历文件夹中的所有文件 for root, dirs, files in os.walk(folder_path): for file in files: # 读取html文件 file_path = os.path.join(root, file) with open(file_path, "r", encoding="utf-8-sig") as f: html_code = f.read() # 创建BeautifulSoup对象 soup = BeautifulSoup(html_code, 'html.parser') # 使用正则表达式匹配<body>标签内的数据 body_data = re.findall(pattern, html_code, re.DOTALL) # 剔除<p>和()</p> body_data = body_data[0].replace("<p>", "").replace("()</p>", "") # # 使用正则表达式提取talk_id、时间、发送者ID和接收者ID matches2 = re.findall(r'(?:中发言|发送)\s*(.*?)\s*(?:音频 :|图片 :)?(?:\[([^\]]+)\])?', body_data) for match in matches2: # 提取链接地址 file_text = match[1] matches = re.findall(r'"([^"]*)"', file_text) if matches: file_name = matches[0] else: file_name = "No matches found." # print(file_name) # 替换字符 file_name = file_name.replace('No matches found.','') # 将提取的数据加载到DataFrame中 df_extracted = pd.DataFrame(file_name) # 读取原有的CSV文件 df_original = pd.read_csv(csv_file) print("---导入完成-----")

时间: 2024-02-14 07:30:09 浏览: 95
根据你的代码,你想将提取的文件名数据加载到一个DataFrame中,并将原有的CSV文件读取到另一个DataFrame中。然后,你可能想将提取的文件名数据写入已建的CSV文件中。以下是你可以继续完善的代码示例: ```python import os from bs4 import BeautifulSoup import re import csv import pandas as pd # 指定文件夹路径 folder_path = "C:/Users/test/Desktop/DIDItest" # 正则表达式模式 pattern = r'<body>(.*?)<\/body>' # 创建CSV文件并写入表头 csv_file = "output.csv" header = ['File Name'] # 表头 # 首次创建CSV文件时,写入表头 if not os.path.exists(csv_file): with open(csv_file, mode='w', newline='') as file: writer = csv.writer(file) writer.writerow(header) # 遍历文件夹中的所有文件 for root, dirs, files in os.walk(folder_path): for file in files: # 读取html文件 file_path = os.path.join(root, file) with open(file_path, "r", encoding="utf-8-sig") as f: html_code = f.read() # 创建BeautifulSoup对象 soup = BeautifulSoup(html_code, 'html.parser') # 使用正则表达式匹配<body>标签内的数据 body_data = re.findall(pattern, html_code, re.DOTALL) # 剔除<p>和()</p> body_data = body_data[0].replace("<p>", "").replace("()</p>", "") # 使用正则表达式提取文件名 matches = re.findall(r'"([^"]*)"', body_data) if matches: file_name = matches[0] else: file_name = "No matches found." # 替换字符 file_name = file_name.replace('No matches found.', '') # 将提取的数据写入CSV文件 with open(csv_file, mode='a', newline='') as file: writer = csv.writer(file) writer.writerow([file_name]) print("数据已成功写入CSV文件") ``` 在上面的代码中,我添加了一些逻辑来创建CSV文件并写入表头。然后,使用`csv.writer`将提取的文件名写入CSV文件中的新行。请确保提供正确的文件夹路径和CSV文件路径,并根据需要调整代码。
阅读全文

相关推荐

import os import re from bs4 import BeautifulSoup # 设置html文件路径 folder_path = r'C:\Users\test\Desktop\DIDItest' # 提取html文件内所需要数据 def extract_html_info(file_path): with open(file_path, 'r', encoding='utf-8') as file: # 读取HTML源代码 html = file.read() soup = BeautifulSoup(html, 'html.parser') # 提取所有的标签 p_tags = soup.find_all('p') for p_tag in p_tags: # 提取ID talk_id = p_tag.find_previous(string=lambda text: isinstance(text, str) and '[talkid:' in text) talk_id = talk_id.strip('[talkid:]') # 提取时间 timestamp = p_tag.find_previous('body').find_previous('head').find('meta', {'http-equiv': 'Content=-Type'})[ 'content'] # 提取发送号码 send_number = p_tag.find('span', {'class': 'hint-success'}).text # 提取接收号码 receive_number = p_tag.find_all('span', {'class': 'hint-success'})[1].text # 提取信息内容 message = p_tag.previous_sibling.strip() # 遍历文件夹及子文件夹,提取HTML文件信息 for root, dirs, files in os.walk(folder_path): for file in files: if file.endswith('.html'): file_path = os.path.join(root, file) extract_html_info(file_path) # 判断是否是音频 if '音频' in message: file_url = p_tag.find('a')['href'] print( f"ID: {talk_id}, 时间: {timestamp}, 发送号码: {send_number}, 接收号码: {receive_number}, 音频文件地址: {file_url}") else: print( f"ID: {talk_id}, 时间: {timestamp}, 发送号码: {send_number}, 接收号码: {receive_number}, 信息内容: {message}")

import os import re import csv from bs4 import BeautifulSoup # 设置html文件路径 folder_path = r'C:\Users\test\Desktop\DIDItest' output_file = r'C:\Users\test\Desktop\output.csv' # 提取html文件内所需要数据 def extract_html_info(file_path, csv_writer): with open(file_path, 'r', encoding='utf-8') as file: # 读取HTML源代码 html = file.read() soup = BeautifulSoup(html, 'html.parser') # 提取所有的标签 p_tags = soup.find_all('p') for p_tag in p_tags: # 提取ID、时间、发送号码、接收号码和发送内容 talk_id = soup.find('span', class_='hint-success').text.strip() time = soup.find('body').contents[0].strip() send_number = soup.find_all('span', class_='hint-success')[0].text.strip() receive_number = soup.find_all('span', class_='hint-success')[1].text.strip() content = soup.find('p').contents[0].strip() # 判断是否是音频 if '音频' in message: file_url = p_tag.find('a')['href'] csv_writer.writerow([talk_id, timestamp, send_number, receive_number, file_url]) else: csv_writer.writerow([talk_id, timestamp, send_number, receive_number, message]) # 创建CSV文件并写入数据 with open(output_file, 'w', newline='', encoding='utf-8') as file: csv_writer = csv.writer(file) csv_writer.writerow(['ID', '时间', '发送号码', '接收号码', '内容']) # 遍历文件夹及子文件夹,提取HTML文件信息 for root, dirs, files in os.walk(folder_path): for file in files: if file.endswith('.html'): file_path = os.path.join(root, file) extract_html_info(file_path, csv_writer) print("数据已成功写入CSV文件。")

最新推荐

recommend-type

基于springboot大学生就业信息管理系统源码数据库文档.zip

基于springboot大学生就业信息管理系统源码数据库文档.zip
recommend-type

基于java的驾校收支管理可视化平台的开题报告.docx

基于java的驾校收支管理可视化平台的开题报告
recommend-type

原木5秒数据20241120.7z

时间序列 原木 间隔5秒钟 20241120
recommend-type

毕业设计&课设_基于 Vue 的电影在线预订与管理系统:后台 Java(SSM)代码,为毕业设计项目.zip

毕业设计&课设_基于 Vue 的电影在线预订与管理系统:后台 Java(SSM)代码,为毕业设计项目.zip
recommend-type

基于springboot课件通中小学教学课件共享平台源码数据库文档.zip

基于springboot课件通中小学教学课件共享平台源码数据库文档.zip
recommend-type

Chrome ESLint扩展:实时运行ESLint于网页脚本

资源摘要信息:"chrome-eslint:Chrome扩展程序可在当前网页上运行ESLint" 知识点: 1. Chrome扩展程序介绍: Chrome扩展程序是一种为Google Chrome浏览器添加新功能的小型软件包,它们可以增强或修改浏览器的功能。Chrome扩展程序可以用来个性化和定制浏览器,从而提高工作效率和浏览体验。 2. ESLint功能及应用场景: ESLint是一个开源的JavaScript代码质量检查工具,它能够帮助开发者在开发过程中就发现代码中的语法错误、潜在问题以及不符合编码规范的部分。它通过读取代码文件来检测错误,并根据配置的规则进行分析,从而帮助开发者维护统一的代码风格和避免常见的编程错误。 3. 部署后的JavaScript代码问题: 在将JavaScript代码部署到生产环境后,可能存在一些代码是开发过程中未被检测到的,例如通过第三方服务引入的脚本。这些问题可能在开发环境中未被发现,只有在用户实际访问网站时才会暴露出来,例如第三方脚本的冲突、安全性问题等。 4. 为什么需要在已部署页面运行ESLint: 在已部署的页面上运行ESLint可以发现那些在开发过程中未被捕捉到的JavaScript代码问题。它可以帮助开发者识别与第三方脚本相关的问题,比如全局变量冲突、脚本执行错误等。这对于解决生产环境中的问题非常有帮助。 5. Chrome ESLint扩展程序工作原理: Chrome ESLint扩展程序能够在当前网页的所有脚本上运行ESLint检查。通过这种方式,开发者可以在实际的生产环境中快速识别出可能存在的问题,而无需等待用户报告或使用其他诊断工具。 6. 扩展程序安装与使用: 尽管Chrome ESLint扩展程序尚未发布到Chrome网上应用店,但有经验的用户可以通过加载未打包的扩展程序的方式自行安装。这需要用户从GitHub等平台下载扩展程序的源代码,然后在Chrome浏览器中手动加载。 7. 扩展程序的局限性: 由于扩展程序运行在用户的浏览器端,因此它的功能可能受限于浏览器的执行环境。它可能无法访问某些浏览器API或运行某些特定类型的代码检查。 8. 调试生产问题: 通过使用Chrome ESLint扩展程序,开发者可以有效地调试生产环境中的问题。尤其是在处理复杂的全局变量冲突或脚本执行问题时,可以快速定位问题脚本并分析其可能的错误源头。 9. JavaScript代码优化: 扩展程序不仅有助于发现错误,还可以帮助开发者理解页面上所有JavaScript代码之间的关系。这有助于开发者优化代码结构,提升页面性能,确保代码质量。 10. 社区贡献: Chrome ESLint扩展程序的开发和维护可能是一个开源项目,这意味着整个开发社区可以为其贡献代码、修复bug和添加新功能。这对于保持扩展程序的活跃和相关性是至关重要的。 通过以上知识点,我们可以深入理解Chrome ESLint扩展程序的作用和重要性,以及它如何帮助开发者在生产环境中进行JavaScript代码的质量保证和问题调试。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

精确率与召回率的黄金法则:如何在算法设计中找到最佳平衡点

![精确率与召回率的黄金法则:如何在算法设计中找到最佳平衡点](http://8411330.s21i.faiusr.com/4/ABUIABAEGAAg75zR9gUo_MnlwgUwhAc4-wI.png) # 1. 精确率与召回率的基本概念 在信息技术领域,特别是在机器学习和数据分析的语境下,精确率(Precision)和召回率(Recall)是两个核心的评估指标。精确率衡量的是模型预测为正的样本中实际为正的比例,而召回率衡量的是实际为正的样本被模型正确预测为正的比例。理解这两个概念对于构建有效且准确的预测模型至关重要。为了深入理解精确率与召回率,在本章节中,我们将先从这两个概念的定义
recommend-type

在嵌入式系统中,如何确保EFS高效地管理Flash和ROM存储器,并向应用程序提供稳定可靠的接口?

为了确保嵌入式文件系统(EFS)高效地管理Flash和ROM存储器,同时向应用程序提供稳定可靠的接口,以下是一些关键技术和实践方法。 参考资源链接:[嵌入式文件系统:EFS在Flash和ROM中的可靠存储应用](https://wenku.csdn.net/doc/87noux71g0?spm=1055.2569.3001.10343) 首先,EFS需要设计为一个分层结构,其中包含应用程序接口(API)、本地设备接口(LDI)和非易失性存储器(NVM)层。NVM层负责处理与底层存储介质相关的所有操作,包括读、写、擦除等,以确保数据在断电后仍然能够被保留。 其次,EFS应该提供同步和异步两
recommend-type

基于 Webhook 的 redux 预处理器实现教程

资源摘要信息: "nathos-wh:*** 的基于 Webhook 的 redux" 知识点: 1. Webhook 基础概念 Webhook 是一种允许应用程序提供实时信息给其他应用程序的方式。它是一种基于HTTP回调的简单技术,允许一个应用在特定事件发生时,通过HTTP POST请求实时通知另一个应用,从而实现两个应用之间的解耦和自动化的数据交换。在本主题中,Webhook 用于触发服务器端的预处理操作。 2. Grunt 工具介绍 Grunt 是一个基于Node.js的自动化工具,主要用于自动化重复性的任务,如编译、测试、压缩文件等。通过定义Grunt任务和配置文件,开发者可以自动化执行各种操作,提高开发效率和维护便捷性。 3. Node 模块及其安装 Node.js 是一个基于Chrome V8引擎的JavaScript运行环境,它允许开发者使用JavaScript来编写服务器端代码。Node 模块是Node.js的扩展包,可以通过npm(Node.js的包管理器)进行安装。在本主题中,通过npm安装了用于预处理Sass、Less和Coffescript文件的Node模块。 4. Sass、Less 和 Coffescript 文件预处理 Sass、Less 和 Coffescript 是前端开发中常用的预处理器语言。Sass和Less是CSS预处理器,它们扩展了CSS的功能,例如变量、嵌套规则、混合等,使得CSS编写更加方便、高效。Coffescript则是一种JavaScript预处理语言,它提供了更为简洁的语法和一些编程上的便利特性。 5. 服务器端预处理操作触发 在本主题中,Webhook 被用来触发服务器端的预处理操作。当Webhook被设置的事件触发后,它会向服务器发送一个HTTP POST请求。服务器端的监听程序接收到请求后,会执行相应的Grunt任务,进行Sass、Less和Coffescript的编译转换工作。 6. Grunt 文件配置 Grunt 文件(通常命名为Gruntfile.js)是Grunt任务的配置文件。它定义了任务和任务运行时的配置,允许开发者自定义要执行的任务以及执行这些任务时的参数。在本主题中,Grunt文件被用来配置预处理任务。 7. 服务器重启与 Watch 命令 为了确保Webhook触发的预处理命令能够正确执行,需要在安装完所需的Node模块后重新启动Webhook运行服务器。Watch命令是Grunt的一个任务,可以监控文件的变化,并在检测到变化时执行预设的任务,如重新编译Sass、Less和Coffescript文件。 总结来说,nathos-wh主题通过搭建Grunt环境并安装特定的Node模块,实现了Sass、Less和Coffescript文件的实时预处理。这使得Web开发人员可以在本地开发时享受到更高效、自动化的工作流程,并通过Webhook与服务器端的交互实现实时的自动构建功能。这对于提高前端开发的效率和准确性非常关键,同时也体现了现代Web开发中自动化工具与实时服务整合的趋势。