结合了LDA主题模型、Word2Vec词向量模型的TextRank关键词抽取算法Python代码

时间: 2024-02-05 13:10:24 浏览: 97
以下是结合了LDA主题模型、Word2Vec词向量模型的TextRank关键词抽取算法的Python代码: ```python import jieba import gensim from gensim import corpora, models import numpy as np from sklearn.metrics.pairwise import cosine_similarity def load_stopwords(path): """ 加载停用词 :param path: 停用词文件路径 :return: 停用词列表 """ stopwords = [] with open(path, 'r', encoding='utf-8') as f: for line in f.readlines(): stopwords.append(line.strip()) return stopwords def get_sentences(text): """ 使用jieba分句 :param text: 文本内容 :return: 句子列表 """ sentences = [] for line in text.split('\n'): line = line.strip() if not line: continue for s in line.split('。'): s = s.strip() if not s: continue sentences.append(s) return sentences def segment(sentence, stopwords): """ 使用jieba进行分词并去除停用词 :param sentence: 句子 :param stopwords: 停用词列表 :return: 分词后的列表 """ words = [] for word in jieba.cut(sentence): word = word.strip() if not word: continue if word not in stopwords: words.append(word) return words def get_word2vec_model(text, size=100, window=5, min_count=5, workers=4): """ 训练Word2Vec模型 :param text: 文本内容 :param size: 词向量维度 :param window: 窗口大小 :param min_count: 最小词频 :param workers: 线程数 :return: Word2Vec模型 """ sentences = [] for line in text.split('\n'): line = line.strip() if not line: continue sentences.append(segment(line, stopwords)) model = gensim.models.Word2Vec(sentences, size=size, window=window, min_count=min_count, workers=workers) return model def get_lda_model(text, num_topics=8, passes=10): """ 训练LDA主题模型 :param text: 文本内容 :param num_topics: 主题数 :param passes: 迭代次数 :return: LDA模型和语料库 """ sentences = [] for line in text.split('\n'): line = line.strip() if not line: continue sentences.append(segment(line, stopwords)) dictionary = corpora.Dictionary(sentences) corpus = [dictionary.doc2bow(sentence) for sentence in sentences] lda_model = models.ldamodel.LdaModel(corpus=corpus, num_topics=num_topics, id2word=dictionary, passes=passes) return lda_model, corpus def get_topic_word_matrix(lda_model, num_topics, num_words): """ 获取主题-词矩阵 :param lda_model: LDA模型 :param num_topics: 主题数 :param num_words: 每个主题选取的关键词数 :return: 主题-词矩阵 """ topic_word_matrix = np.zeros((num_topics, num_words)) for i in range(num_topics): topic_words = lda_model.get_topic_terms(i, topn=num_words) for j in range(num_words): topic_word_matrix[i][j] = topic_words[j][0] return topic_word_matrix def get_sentence_topic_vector(sentence, lda_model, dictionary, num_topics): """ 获取句子的主题向量 :param sentence: 句子 :param lda_model: LDA模型 :param dictionary: 词典 :param num_topics: 主题数 :return: 句子的主题向量 """ sentence_bow = dictionary.doc2bow(segment(sentence, stopwords)) topic_vector = np.zeros(num_topics) for topic, prob in lda_model[sentence_bow]: topic_vector[topic] = prob return topic_vector def get_similarity_matrix(sentences, word2vec_model): """ 获取句子之间的相似度矩阵 :param sentences: 句子列表 :param word2vec_model: Word2Vec模型 :return: 相似度矩阵 """ similarity_matrix = np.zeros((len(sentences), len(sentences))) for i in range(len(sentences)): for j in range(i+1, len(sentences)): sim = cosine_similarity([np.mean([word2vec_model[word] for word in segment(sentences[i], stopwords) if word in word2vec_model], axis=0)], [np.mean([word2vec_model[word] for word in segment(sentences[j], stopwords) if word in word2vec_model], axis=0)]).item() similarity_matrix[i][j] = sim similarity_matrix[j][i] = sim return similarity_matrix def get_textrank_score(sentences, num_topics, lda_model, word2vec_model): """ 获取TextRank算法得分 :param sentences: 句子列表 :param num_topics: 主题数 :param lda_model: LDA模型 :param word2vec_model: Word2Vec模型 :return: 句子得分列表 """ dictionary = lda_model.id2word num_words = 20 topic_word_matrix = get_topic_word_matrix(lda_model, num_topics, num_words) sentence_topic_vectors = np.zeros((len(sentences), num_topics)) for i in range(len(sentences)): sentence_topic_vectors[i] = get_sentence_topic_vector(sentences[i], lda_model, dictionary, num_topics) similarity_matrix = get_similarity_matrix(sentences, word2vec_model) # TextRank算法迭代 max_iter = 100 d = 0.85 scores = np.ones(len(sentences)) for i in range(max_iter): tmp_scores = np.zeros(len(sentences)) for j in range(len(sentences)): tmp_scores[j] = (1 - d) + d * np.sum([similarity_matrix[j][k] * scores[k] for k in range(len(sentences))]) scores = tmp_scores # 合并TextRank和主题模型得分 final_scores = np.zeros(len(sentences)) for i in range(len(sentences)): for j in range(num_topics): final_scores[i] += topic_word_matrix[j].tolist().count(i) * sentence_topic_vectors[i][j] final_scores = d * final_scores + (1 - d) * scores return final_scores # 加载停用词 stopwords = load_stopwords('stopwords.txt') # 加载文本 with open('text.txt', 'r', encoding='utf-8') as f: text = f.read() # 分句 sentences = get_sentences(text) # 训练Word2Vec模型 word2vec_model = get_word2vec_model(text) # 训练LDA主题模型 lda_model, corpus = get_lda_model(text) # 获取TextRank算法得分 num_topics = 8 scores = get_textrank_score(sentences, num_topics, lda_model, word2vec_model) # 按得分排序,获取关键词 num_keywords = 10 keywords = [] idx = np.argsort(scores)[::-1][:num_keywords] for i in idx: keywords.append(sentences[i]) print(keywords) ``` 其中,text.txt为待处理的文本文件,stopwords.txt为停用词文件,需要自行准备。代码中num_topics、num_words、num_keywords等参数需要根据实际情况进行调整。

相关推荐

最新推荐

recommend-type

python TF-IDF算法实现文本关键词提取

TF-IDF算法是一种在信息检索和自然语言处理中广泛...为了克服这些问题,可以考虑使用更复杂的文本分析技术,如LDA(Latent Dirichlet Allocation)主题模型或NLP(自然语言处理)中的词嵌入方法,如Word2Vec或BERT等。
recommend-type

python实现关键词提取的示例讲解

Python 实现关键词提取的过程主要涉及三个关键步骤:分词、去除停用词和关键词提取。...对于更复杂的任务,还可以考虑使用更先进的 NLP 模型,如 LDA(Latent Dirichlet Allocation)主题模型或 BERT 等深度学习模型。
recommend-type

基于Vue、JavaScript、HTML、CSS的myshop电商平台设计源码

该项目是一款基于Vue、JavaScript、HTML和CSS构建的myshop电商平台设计源码,总计包含94个文件,涵盖32个PNG图片、22个JavaScript文件、13个Vue组件文件、13个JPG图片文件、3个GIF图片文件、3个SCSS样式文件,以及其他必要的配置和管理文件。
recommend-type

基于c语言的对自己电脑系统测试.zip

基于c语言的对自己电脑系统测试.zip
recommend-type

基于Labview的-转子动平衡测控系统

基于Labview的--转子动平衡测控系统
recommend-type

批量文件重命名神器:HaoZipRename使用技巧

资源摘要信息:"超实用的批量文件改名字小工具rename" 在进行文件管理时,经常会遇到需要对大量文件进行重命名的场景,以统一格式或适应特定的需求。此时,批量重命名工具成为了提高工作效率的得力助手。本资源聚焦于介绍一款名为“rename”的批量文件改名工具,它支持增删查改文件名,并能够方便地批量操作,从而极大地简化了文件管理流程。 ### 知识点一:批量文件重命名的需求与场景 在日常工作中,无论是出于整理归档的目的还是为了符合特定的命名规则,批量重命名文件都是一个常见的需求。例如: - 企业或组织中的文件归档,可能需要按照特定的格式命名,以便于管理和检索。 - 在处理下载的多媒体文件时,可能需要根据文件类型、日期或其他属性重新命名。 - 在软件开发过程中,对代码文件或资源文件进行统一的命名规范。 ### 知识点二:rename工具的基本功能 rename工具专门设计用来处理文件名的批量修改,其基本功能包括但不限于: - **批量修改**:一次性对多个文件进行重命名。 - **增删操作**:在文件名中添加或删除特定的文本。 - **查改功能**:查找文件名中的特定文本并将其替换为其他文本。 - **格式统一**:为一系列文件统一命名格式。 ### 知识点三:使用rename工具的具体操作 以rename工具进行批量文件重命名通常遵循以下步骤: 1. 选择文件:根据需求选定需要重命名的文件列表。 2. 设定规则:定义重命名的规则,比如在文件名前添加“2023_”,或者将文件名中的“-”替换为“_”。 3. 执行重命名:应用设定的规则,批量修改文件名。 4. 预览与确认:在执行之前,工具通常会提供预览功能,允许用户查看重命名后的文件名,并进行最终确认。 ### 知识点四:rename工具的使用场景 rename工具在不同的使用场景下能够发挥不同的作用: - **IT行业**:对于软件开发者或系统管理员来说,批量重命名能够快速调整代码库中文件的命名结构,或者修改服务器上的文件名。 - **媒体制作**:视频编辑和摄影师经常需要批量重命名图片和视频文件,以便更好地进行分类和检索。 - **教育与学术**:教授和研究人员可能需要批量重命名大量的文档和资料,以符合学术规范或方便资料共享。 ### 知识点五:rename工具的高级特性 除了基本的批量重命名功能,一些高级的rename工具可能还具备以下特性: - **正则表达式支持**:利用正则表达式可以进行复杂的查找和替换操作。 - **模式匹配**:可以定义多种匹配模式,满足不同的重命名需求。 - **图形用户界面**:提供直观的操作界面,简化用户的操作流程。 - **命令行操作**:对于高级用户,可以通过命令行界面进行更为精准的定制化操作。 ### 知识点六:与rename相似的其他批量文件重命名工具 除了rename工具之外,还有多种其他工具可以实现批量文件重命名的功能,如: - **Bulk Rename Utility**:一个功能强大的批量重命名工具,特别适合Windows用户。 - **Advanced Renamer**:提供图形界面,并支持脚本,用户可以创建复杂的重命名方案。 - **MMB Free Batch Rename**:一款免费且易于使用的批量重命名工具,具有直观的用户界面。 ### 知识点七:避免批量重命名中的常见错误 在使用批量重命名工具时,有几个常见的错误需要注意: - **备份重要文件**:在批量重命名之前,确保对文件进行了备份,以防意外发生。 - **仔细检查规则**:设置好规则之后,一定要进行检查,确保规则的准确性,以免出现错误的命名。 - **逐步执行**:如果不确定规则的效果,可以先小批量试运行规则,确认无误后再批量执行。 - **避免使用通配符**:在没有充分理解通配符含义的情况下,不建议使用,以免误操作。 综上所述,批量文件改名工具rename是一个高效、便捷的解决方案,用于处理大量文件的重命名工作。通过掌握其使用方法和技巧,用户可以显著提升文件管理的效率,同时减少重复劳动,保持文件系统的整洁和有序。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

RestTemplate性能优化秘籍:提升API调用效率,打造极致响应速度

![RestTemplate性能优化秘籍:提升API调用效率,打造极致响应速度](https://media.geeksforgeeks.org/wp-content/uploads/20220309145320/WorkingOfRESTTemplate.jpg) # 1. RestTemplate基础与API调用概述 ## 1.1 RestTemplate简介 `RestTemplate`是Spring框架提供的一个同步HTTP客户端,设计用来简化客户端HTTP请求的发送以及HTTP响应的接收。它是针对Java开发者的REST API调用的高级抽象,为调用RESTful服务提供了便利。
recommend-type

Leader和follower 位置反了如何调换zookeeper

在ZooKeeper中,Leader和Follower的角色通常是静态分配的,并通过选举机制确定。如果需要调整它们的位置,通常是在集群初始化或者节点失效的情况下,会触发重新选举过程。 1. **停止服务**:首先,停止ZooKeeper服务的所有节点,包括当前的Leader和Follower。 2. **修改配置**:打开zoo.cfg配置文件,更改服务器列表(server.X=IP:port:角色),将原来的Leader的地址设为Follower,Follower的地址设为Leader。例如: ``` server.1=old_leader_ip:old_leader_po
recommend-type

简洁注册登录界面设计与代码实现

资源摘要信息:"在现代Web开发中,简洁美观的注册登录页面是用户界面设计的重要组成部分。简洁的页面设计不仅能够提升用户体验,还能提高用户完成注册或登录流程的意愿。本文将详细介绍如何创建两个简洁且功能完善的注册登录页面,涉及HTML5和前端技术。" ### 知识点一:HTML5基础 - **语义化标签**:HTML5引入了许多新标签,如`<header>`、`<footer>`、`<article>`、`<section>`等,这些语义化标签不仅有助于页面结构的清晰,还有利于搜索引擎优化(SEO)。 - **表单标签**:`<form>`标签是创建注册登录页面的核心,配合`<input>`、`<button>`、`<label>`等元素,可以构建出功能完善的表单。 - **增强型输入类型**:HTML5提供了多种新的输入类型,如`email`、`tel`、`number`等,这些类型可以提供更好的用户体验和数据校验。 ### 知识点二:前端技术 - **CSS3**:简洁的页面设计往往需要巧妙的CSS布局和样式,如Flexbox或Grid布局技术可以实现灵活的页面布局,而CSS3的动画和过渡效果则可以提升交云体验。 - **JavaScript**:用于增加页面的动态功能,例如表单验证、响应式布局切换、与后端服务器交互等。 ### 知识点三:响应式设计 - **媒体查询**:使用CSS媒体查询可以创建响应式设计,确保注册登录页面在不同设备上都能良好显示。 - **流式布局**:通过设置百分比宽度或视口单位(vw/vh),使得页面元素可以根据屏幕大小自动调整大小。 ### 知识点四:注册登录页面设计细节 - **界面简洁性**:避免过多的装饰性元素,保持界面的整洁和专业感。 - **易用性**:设计简洁直观的用户交互,确保用户能够轻松理解和操作。 - **安全性和隐私**:注册登录页面应特别注意用户数据的安全,如使用HTTPS协议保护数据传输,以及在前端进行基本的输入验证。 ### 知识点五:Zip文件内容解析 - **登录.zip**:该压缩包内可能包含登录页面的HTML、CSS和JavaScript文件,以及相关的图片和其他资源文件。开发者可以利用这些资源快速搭建一个登录界面。 - **滑动登录注册界面.zip**:该压缩包内可能包含了两个页面的文件,分别是注册和登录页面。文件可能包含用HTML5实现的滑动动画效果,通过CSS3和JavaScript的结合实现动态交互,提供更流畅的用户体验。 通过这些知识点,开发者能够创建出既简洁又功能完善的注册登录页面。需要注意的是,尽管页面设计要简洁,但安全措施不可忽视。使用加密技术保护用户数据,以及在用户端进行有效的数据验证,都是开发者在实现简洁界面同时需要考虑的安全要素。