用Python实现word2vec模型实例,给出代码和相应的注释

时间: 2024-02-13 10:02:01 浏览: 27
好的,以下是一个简单的 Python 实现 word2vec 模型的示例代码: ```python import numpy as np import re from collections import defaultdict from typing import List def tokenize(text: str) -> List[str]: # 将文本转换为小写,去掉标点符号和数字,并且按空格划分为单词 return re.findall(r'\b[a-z]+\b', text.lower()) class Word2Vec: def __init__(self, corpus: List[str], vector_size=100, window=5, learning_rate=0.01): self.corpus = corpus self.vector_size = vector_size self.window = window self.learning_rate = learning_rate self.word2id = {} self.id2word = {} self.word_freq = defaultdict(int) self.word_count = 0 self.vocab_size = 0 self.w1 = np.random.uniform(-0.5/vector_size, 0.5/vector_size, (vector_size, self.vocab_size)) self.w2 = np.random.uniform(-0.5/vector_size, 0.5/vector_size, (self.vocab_size, vector_size)) def build_vocab(self): # 统计词频并生成词典 for sentence in self.corpus: words = tokenize(sentence) for word in words: self.word_freq[word] += 1 self.word_count += 1 sorted_words = sorted(self.word_freq.items(), key=lambda x: x[1], reverse=True) for i, (word, freq) in enumerate(sorted_words): self.word2id[word] = i self.id2word[i] = word self.vocab_size = len(self.word2id) # 更新权重矩阵 w1 self.w1 = np.random.uniform(-0.5/self.vector_size, 0.5/self.vector_size, (self.vector_size, self.vocab_size)) def train(self): for sentence in self.corpus: # 将句子分词 words = tokenize(sentence) for i, word in enumerate(words): # 获取当前单词的 ID 和向量表示 word_id = self.word2id[word] word_vector = self.w1[:, word_id] # 随机选择一个窗口大小 window_size = np.random.randint(1, self.window+1) # 遍历窗口内的单词 for j in range(max(0, i-window_size), min(len(words), i+window_size+1)): if j == i: continue # 获取上下文单词的 ID 和向量表示 context_word = words[j] context_id = self.word2id[context_word] context_vector = self.w2[context_id, :] # 计算当前单词和上下文单词的相似度 similarity = np.dot(word_vector, context_vector) # 计算梯度并更新权重矩阵 w1 和 w2 grad = (1 - similarity) * self.learning_rate self.w1[:, word_id] += grad * context_vector self.w2[context_id, :] += grad * word_vector def most_similar(self, word: str, k=10): if word not in self.word2id: return [] word_vector = self.w1[:, self.word2id[word]] similarities = np.dot(self.w2, word_vector) top_k = np.argsort(similarities)[::-1][:k+1] return [(self.id2word[i], similarities[i]) for i in top_k if i != self.word2id[word]] ``` 这个示例代码包含了以下几个部分: 1. `tokenize` 函数:对文本进行分词,去掉标点符号和数字,并将所有单词转换为小写。 2. `Word2Vec` 类:初始化函数接受一个文本列表 `corpus`,以及一些超参数,如向量维度 `vector_size`、窗口大小 `window` 和学习率 `learning_rate`。该类包含了以下几个方法: - `build_vocab`:构建词典,统计词频并生成词典,同时初始化权重矩阵 `w1`。 - `train`:训练模型,遍历文本列表中的每个句子,对于每个单词,随机选择一个窗口大小,并遍历窗口内的所有单词,计算当前单词和上下文单词的相似度,并更新权重矩阵 `w1` 和 `w2`。 - `most_similar`:寻找与给定单词最相似的 `k` 个单词,基于余弦相似度计算相似度。 3. 示例代码的主函数:包括读入文本数据、初始化模型、构建词典、训练模型和测试模型等步骤。 需要注意的是,这只是一个简单的示例代码,实际上 word2vec 模型的实现有很多变种和优化,例如使用负采样、层次 softmax 等技术来加速训练和提高效果。

相关推荐

最新推荐

recommend-type

Python实现word2Vec model过程解析

主要介绍了Python实现word2Vec model过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
recommend-type

在python下实现word2vec词向量训练与加载实例

word2vec的原理就不描述了,word2vec词向量工具是由google开发的,输入为文本文档,输出为基于这个文本文档的语料库训练得到的词向量模型。 通过该模型可以对单词的相似度进行量化分析。 word2vec的训练方法有2种,...
recommend-type

python gensim使用word2vec词向量处理中文语料的方法

主要介绍了python gensim使用word2vec词向量处理中文语料的方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
recommend-type

python使用Word2Vec进行情感分析解析

python实现情感分析(Word2Vec) ** 前几天跟着老师做了几个项目,老师写的时候劈里啪啦一顿敲,写了个啥咱也布吉岛,线下自己就瞎琢磨,终于实现了一个最简单的项目。输入文本,然后分析情感,判断出是好感还是反感...
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

用matlab绘制高斯色噪声情况下的频率估计CRLB,其中w(n)是零均值高斯色噪声,w(n)=0.8*w(n-1)+e(n),e(n)服从零均值方差为se的高斯分布

以下是用matlab绘制高斯色噪声情况下频率估计CRLB的代码: ```matlab % 参数设置 N = 100; % 信号长度 se = 0.5; % 噪声方差 w = zeros(N,1); % 高斯色噪声 w(1) = randn(1)*sqrt(se); for n = 2:N w(n) = 0.8*w(n-1) + randn(1)*sqrt(se); end % 计算频率估计CRLB fs = 1; % 采样频率 df = 0.01; % 频率分辨率 f = 0:df:fs/2; % 频率范围 M = length(f); CRLB = zeros(M,1); for
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依