帮我改成创新点 为解决了传统的语言模型 Word2vec、Glove 等词向量表示方法都无法解决词语多义性和在对中文文本进行训练时没能充分利用其中的句法和词性信息等问题。利用预训练语言模型 BERT对传统词嵌入的情感语义表征能力予以补充,在任务预处理阶段充分挖掘文本蕴含的情感语义信息;同时融入了词性信息、位置信息和 n-gram 信息等多种语义特征,使模型具有更加丰富的情感语义表达。 (2)文本情感分析任务中情感特征提取的好坏直接影响文本情感分析的效果,因此在本文提出的CNN-BiLSTM-ATT模型的基础上,使用文本卷积神经网络(Text-CNN)代替 CNN-BiLSTM-ATT 模型中的CNN模块, 通过使用多个大小不同的卷积核提取粒度不同的情感特征以及句子内部及句子之间的相互关系。同时,使用双向门限循环神经网络(BiGRU)代替BiLSTM 更准确完整捕捉文本序列中时间步距离较大词语依赖关系,而且简化模型结构。 (3)利用注意力机制将提取到的各类特征信息进行交互,获得更深层次的上下文语义关联,以此提升模型的情感分类性能
时间: 2023-03-26 14:02:41 浏览: 169
词向量模型(word2vec)总结笔记
5星 · 资源好评率100%
答:本文提出了一种创新点,即利用预训练语言模型BERT对传统词嵌入的情感语义表征能力予以补充,在任务预处理阶段充分挖掘文本蕴含的情感语义信息;同时融入了词性信息、位置信息和n-gram信息等多种语义特征,使模型具有更加丰富的情感语义表达。在文本情感分析任务中,使用文本卷积神经网络(Text-CNN)代替CNN-BiLSTM-ATT模型中的CNN模块,通过使用多个大小不同的卷积核提取粒度不同的情感特征以及句子内部及句子之间的相互关系。同时,使用双向门限循环神经网络(BiGRU)代替BiLSTM更准确完整捕捉文本序列中时间步距离较大词语依赖关系,而且简化模型结构。利用注意力机制将提取到的各类特征信息进行交互,获得更深层次的上下文语义关联,以此提升模型的情感分类性能。
阅读全文