基于Python爬虫的新闻网站爬虫及可视化的设计与实现

时间: 2023-12-02 08:03:53 浏览: 66
设计思路: 1. 首先确定要爬取的新闻网站,并了解该网站的网页结构和新闻分类方式。 2. 使用 Python 爬虫库 requests 和 BeautifulSoup 进行网页爬取和解析,获取新闻的标题、时间、正文、链接等信息。 3. 将获取到的新闻信息存储在本地数据库中,方便后续的数据处理和可视化。 4. 使用 Python 数据处理和可视化库 pandas、numpy、matplotlib、seaborn 等进行数据处理和可视化,分析新闻的热点话题、关键词、时间分布等信息。 5. 通过 Flask Web 框架,将分析结果可视化展示在网页上,并提供搜索和筛选功能,方便用户查找感兴趣的新闻。 实现步骤: 1. 确定要爬取的新闻网站,例如新浪新闻、腾讯新闻等。 2. 使用 requests 库获取网页的 HTML 内容,使用 BeautifulSoup 库进行解析,获取新闻的标题、时间、正文、链接等信息。 3. 使用 Python 数据库操作库 pymysql,将获取到的新闻信息存储到本地 MySQL 数据库中。 4. 使用 pandas 库进行数据处理,包括数据清洗、数据转换等操作,生成统计分析结果。 5. 使用 matplotlib、seaborn 等库进行数据可视化,生成图表展示新闻热点话题、关键词、时间分布等信息。 6. 使用 Flask Web 框架搭建 Web 服务器,将分析结果以网页的形式展示出来,并提供搜索和筛选功能。 代码实现: 1. 网页爬取和解析: ```python import requests from bs4 import BeautifulSoup def get_news(): base_url = 'http://news.sina.com.cn/china/' news_list = [] for i in range(1, 11): url = base_url + 'index_{}.shtml'.format(i) resp = requests.get(url) resp.encoding = 'utf-8' soup = BeautifulSoup(resp.text, 'html.parser') news_items = soup.select('.news-item') for item in news_items: title = item.select_one('h2').text.strip() time = item.select_one('.time').text.strip() link = item.select_one('a')['href'] content = get_news_content(link) news_list.append({'title': title, 'time': time, 'link': link, 'content': content}) return news_list def get_news_content(url): resp = requests.get(url) resp.encoding = 'utf-8' soup = BeautifulSoup(resp.text, 'html.parser') content = '' p_list = soup.select('#article p') for p in p_list: content += p.text.strip() return content ``` 2. 数据库存储: ```python import pymysql def save_news(news_list): db = pymysql.connect(host='localhost', user='root', password='password', database='news', charset='utf8mb4') cursor = db.cursor() for news in news_list: sql = "INSERT INTO news(title, time, link, content) VALUES (%s, %s, %s, %s)" cursor.execute(sql, (news['title'], news['time'], news['link'], news['content'])) db.commit() db.close() ``` 3. 数据处理和可视化: ```python import pandas as pd import matplotlib.pyplot as plt import seaborn as sns def analysis_news(): db = pymysql.connect(host='localhost', user='root', password='password', database='news', charset='utf8mb4') df = pd.read_sql('SELECT * FROM news', con=db) df['date'] = pd.to_datetime(df['time'].str.slice(0, 10)) df['hour'] = df['time'].str.slice(11, 13).astype(int) df['year'] = df['date'].dt.year df['month'] = df['date'].dt.month df['weekday'] = df['date'].dt.weekday df['keyword'] = df['title'].str.extract('(疫情|防控|复工|复产|经济|政策|医疗|物资|援助|志愿者)') # 热点话题 keyword_count = df['keyword'].value_counts().head(10) plt.figure(figsize=(8, 6)) sns.barplot(x=keyword_count.values, y=keyword_count.index) plt.title('Top 10 Keywords', fontsize=15) plt.xlabel('Count', fontsize=12) plt.ylabel('Keyword', fontsize=12) plt.show() # 时间分布 time_count = df.groupby(['year', 'month'])['title'].count().reset_index(name='count') plt.figure(figsize=(12, 6)) sns.lineplot(x='month', y='count', hue='year', data=time_count) plt.title('Monthly News Count', fontsize=15) plt.xlabel('Month', fontsize=12) plt.ylabel('Count', fontsize=12) plt.show() # 关键词分布 keyword_hour_count = df.groupby(['keyword', 'hour'])['title'].count().reset_index(name='count') plt.figure(figsize=(12, 6)) sns.lineplot(x='hour', y='count', hue='keyword', data=keyword_hour_count) plt.title('Keyword Hourly News Count', fontsize=15) plt.xlabel('Hour', fontsize=12) plt.ylabel('Count', fontsize=12) plt.show() db.close() ``` 4. Web 可视化: ```python from flask import Flask, render_template, request import pymysql app = Flask(__name__) @app.route('/') def index(): return render_template('index.html') @app.route('/search') def search(): db = pymysql.connect(host='localhost', user='root', password='password', database='news', charset='utf8mb4') keyword = request.args.get('keyword') if keyword: sql = "SELECT * FROM news WHERE title LIKE %s" cursor = db.cursor() cursor.execute(sql, ('%' + keyword + '%',)) news_list = cursor.fetchall() else: news_list = [] db.close() return render_template('search.html', keyword=keyword, news_list=news_list) @app.route('/analysis') def analysis(): analysis_news() return 'Analysis Completed!' if __name__ == '__main__': app.run(debug=True) ``` 5. 网页模板: ```html <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>News Crawler</title> </head> <body> <h1>News Crawler</h1> <form action="/search" method="get"> <input type="text" name="keyword"> <input type="submit" value="Search"> </form> <br> <a href="/analysis">Analysis</a> </body> </html> ``` ```html <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>Search Results: {{ keyword }}</title> </head> <body> <h1>Search Results: {{ keyword }}</h1> {% if news_list %} <ul> {% for news in news_list %} <li> <a href="{{ news[3] }}">{{ news[1] }}</a> <span>{{ news[2] }}</span> <p>{{ news[4][:100] }}</p> </li> {% endfor %} </ul> {% else %} <p>No results found.</p> {% endif %} </body> </html> ``` 运行方式: 1. 安装 Python 爬虫库 requests、BeautifulSoup 和数据库操作库 pymysql。 2. 确定要爬取的新闻网站,并运行 get_news 函数爬取新闻信息,将结果保存到 MySQL 数据库中。 3. 运行 analysis_news 函数进行数据分析和可视化,生成图表展示新闻热点话题、关键词、时间分布等信息。 4. 运行 Flask Web 服务器,将分析结果以网页的形式展示出来,并提供搜索和筛选功能。 参考资料: 1. requests:https://requests.readthedocs.io/en/master/ 2. BeautifulSoup:https://www.crummy.com/software/BeautifulSoup/bs4/doc/ 3. pymysql:https://pymysql.readthedocs.io/en/latest/ 4. pandas:https://pandas.pydata.org/docs/ 5. matplotlib:https://matplotlib.org/stable/contents.html 6. seaborn:https://seaborn.pydata.org/ 7. Flask:https://flask.palletsprojects.com/en/2.0.x/

相关推荐

最新推荐

recommend-type

Python爬取数据并实现可视化代码解析

主要介绍了Python爬取数据并实现可视化代码解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

python爬虫实战+数据分析+数据可视化(分析豆瓣 《飞驰人生》影评)

 在学习了python爬虫(requests,bs4)以及numpy、pandas、matplotlib库之后,就想试个小项目磨磨刀。之前只会单方面的使用,比如爬取一个网站相关数据 或者 对已经给了的数据进行分析。这个项目将这几个部分串起来...
recommend-type

python实现网络爬虫 爬取北上广深的天气数据报告 python.docx

该资源是python实现网络爬虫 爬取北上广深的天气数据的报告 注:可用于期末大作业实验报告
recommend-type

基于python的百度迁徙迁入、迁出数据爬取(爬虫大数据)(附代码)

简介 ...不多逼逼,相关的自己了解。趁这几天比较好抓取数据,需要的数据就赶紧抓抓抓。 效果展示 不着急看代码,先给你们看一波效果图,各位看官看完效果图看看...因为我要把表丢进GIS里做可视化(后面有可视化的图),又
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章

![:YOLOv1目标检测算法:实时目标检测的先驱,开启计算机视觉新篇章](https://img-blog.csdnimg.cn/img_convert/69b98e1a619b1bb3c59cf98f4e397cd2.png) # 1. 目标检测算法概述 目标检测算法是一种计算机视觉技术,用于识别和定位图像或视频中的对象。它在各种应用中至关重要,例如自动驾驶、视频监控和医疗诊断。 目标检测算法通常分为两类:两阶段算法和单阶段算法。两阶段算法,如 R-CNN 和 Fast R-CNN,首先生成候选区域,然后对每个区域进行分类和边界框回归。单阶段算法,如 YOLO 和 SSD,一次性执行检
recommend-type

设计算法实现将单链表中数据逆置后输出。用C语言代码

如下所示: ```c #include <stdio.h> #include <stdlib.h> // 定义单链表节点结构体 struct node { int data; struct node *next; }; // 定义单链表逆置函数 struct node* reverse(struct node *head) { struct node *prev = NULL; struct node *curr = head; struct node *next; while (curr != NULL) { next
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依