用python语言爬取qq邮箱邮件内容并保存为excel

时间: 2024-05-08 14:15:10 浏览: 10
抱歉,我是AI语言模型,无法访问网络和本地文件系统,无法编写和运行Python代码。以下是Python爬取QQ邮箱邮件内容并保存为Excel的思路和部分代码: 1. 登录QQ邮箱并获取邮件列表 使用selenium库模拟登录QQ邮箱,获取邮件列表。具体步骤可以参考以下代码: ``` from selenium import webdriver # 打开浏览器 driver = webdriver.Chrome() # 打开QQ邮箱登录页面 driver.get('https://mail.qq.com/') # 输入用户名和密码并点击登录按钮 username = driver.find_element_by_id('u') password = driver.find_element_by_id('p') username.send_keys('your_username') password.send_keys('your_password') login_btn = driver.find_element_by_id('login_button') login_btn.click() # 进入收件箱并获取邮件列表 driver.switch_to.frame('mainFrame') inbox_link = driver.find_element_by_link_text('收件箱') inbox_link.click() mail_list = driver.find_elements_by_xpath('//table[@class="i M"]//tr[@class="to"]') ``` 2. 遍历邮件列表并获取邮件内容 遍历邮件列表,获取每封邮件的主题、发件人、收件人、发送时间和邮件正文。具体步骤可以参考以下代码: ``` import re from bs4 import BeautifulSoup mail_data = [] for mail in mail_list: # 获取邮件主题 subject = mail.find_element_by_class_name('subject').text.strip() # 获取发件人和收件人 to = mail.find_element_by_class_name('to').text.strip() sender = re.search('<(.*?)>', to).group(1) recipient = re.search('To: (.*?) <', to).group(1) # 获取发送时间 sent_time = mail.find_element_by_class_name('time').text.strip() # 进入邮件详情页面并获取邮件正文 mail_link = mail.find_element_by_xpath('./td[3]/div/a') mail_link.click() driver.switch_to.window(driver.window_handles[-1]) soup = BeautifulSoup(driver.page_source, 'html.parser') mail_content = soup.find('div', {'id': 'mailContentContainer'}).get_text().strip() # 保存邮件数据 mail_data.append([subject, sender, recipient, sent_time, mail_content]) # 关闭邮件详情页面 driver.close() driver.switch_to.window(driver.window_handles[0]) ``` 3. 将邮件数据保存为Excel文件 使用pandas库将邮件数据保存为Excel文件。具体步骤可以参考以下代码: ``` import pandas as pd df = pd.DataFrame(mail_data, columns=['Subject', 'Sender', 'Recipient', 'Sent Time', 'Content']) df.to_excel('mail_data.xlsx', index=False) ``` 完整代码如下: ``` from selenium import webdriver import re from bs4 import BeautifulSoup import pandas as pd # 打开浏览器 driver = webdriver.Chrome() # 打开QQ邮箱登录页面 driver.get('https://mail.qq.com/') # 输入用户名和密码并点击登录按钮 username = driver.find_element_by_id('u') password = driver.find_element_by_id('p') username.send_keys('your_username') password.send_keys('your_password') login_btn = driver.find_element_by_id('login_button') login_btn.click() # 进入收件箱并获取邮件列表 driver.switch_to.frame('mainFrame') inbox_link = driver.find_element_by_link_text('收件箱') inbox_link.click() mail_list = driver.find_elements_by_xpath('//table[@class="i M"]//tr[@class="to"]') # 遍历邮件列表并获取邮件内容 mail_data = [] for mail in mail_list: # 获取邮件主题 subject = mail.find_element_by_class_name('subject').text.strip() # 获取发件人和收件人 to = mail.find_element_by_class_name('to').text.strip() sender = re.search('<(.*?)>', to).group(1) recipient = re.search('To: (.*?) <', to).group(1) # 获取发送时间 sent_time = mail.find_element_by_class_name('time').text.strip() # 进入邮件详情页面并获取邮件正文 mail_link = mail.find_element_by_xpath('./td[3]/div/a') mail_link.click() driver.switch_to.window(driver.window_handles[-1]) soup = BeautifulSoup(driver.page_source, 'html.parser') mail_content = soup.find('div', {'id': 'mailContentContainer'}).get_text().strip() # 保存邮件数据 mail_data.append([subject, sender, recipient, sent_time, mail_content]) # 关闭邮件详情页面 driver.close() driver.switch_to.window(driver.window_handles[0]) # 将邮件数据保存为Excel文件 df = pd.DataFrame(mail_data, columns=['Subject', 'Sender', 'Recipient', 'Sent Time', 'Content']) df.to_excel('mail_data.xlsx', index=False) # 关闭浏览器 driver.quit() ```

相关推荐

最新推荐

recommend-type

Python爬取数据保存为Json格式的代码示例

今天小编就为大家分享一篇关于Python爬取数据保存为Json格式的代码示例,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
recommend-type

用python爬取网页并导出为word文档.docx

mongodb的应用之用python爬取网页内容并用mongodb保存. 由于mongodb是文档型数据库,区别于传统的数据库,它是用来管理文档的。在传统的数据库中,信息被分割成离散的数据段,而在文档数据库中,文档是处理信息的...
recommend-type

python制作爬虫并将抓取结果保存到excel中

本文给大家记录的是使用Python制作爬虫爬取拉勾网信息并将结果保存到Excel中的实现思路及方法,并附上最终源码,有需要的小伙伴可以参考下
recommend-type

Python selenium爬取微信公众号文章代码详解

主要介绍了Python selenium爬取微信公众号历史文章代码详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

Python爬虫进阶之多线程爬取数据并保存到数据库

今天刚看完崔大佬的《python3网络爬虫开发实战》,顿时觉得自己有行了,准备用appium登录QQ爬取列表中好友信息,接踵而来的是一步一步的坑,前期配置无数出错,安装之后连接也是好多错误,把这些错误解决之后,找APP...
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【实战演练】MATLAB用遗传算法改进粒子群GA-PSO算法

![MATLAB智能算法合集](https://static.fuxi.netease.com/fuxi-official/web/20221101/83f465753fd49c41536a5640367d4340.jpg) # 2.1 遗传算法的原理和实现 遗传算法(GA)是一种受生物进化过程启发的优化算法。它通过模拟自然选择和遗传机制来搜索最优解。 **2.1.1 遗传算法的编码和解码** 编码是将问题空间中的解表示为二进制字符串或其他数据结构的过程。解码是将编码的解转换为问题空间中的实际解的过程。常见的编码方法包括二进制编码、实数编码和树形编码。 **2.1.2 遗传算法的交叉和
recommend-type

openstack的20种接口有哪些

以下是OpenStack的20种API接口: 1. Identity (Keystone) API 2. Compute (Nova) API 3. Networking (Neutron) API 4. Block Storage (Cinder) API 5. Object Storage (Swift) API 6. Image (Glance) API 7. Telemetry (Ceilometer) API 8. Orchestration (Heat) API 9. Database (Trove) API 10. Bare Metal (Ironic) API 11. DNS
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。