![](https://csdnimg.cn/release/download_crawler_static/87191988/bg7.jpg)
少量标记数据和少量迭代获得良好的分类性能。实验表明,该方法改善了微博
中短评论的情感类别结果,然而字符嵌入增加了文本的分布式表示的复杂性和
计算成本。
循环神经网络(recurrent neural network,RNN)能够循环保持信息(即使
用 以 前 的 信 息 连 接 到 当 前 的 任 务 , 并 用 过 去 的 文 本 猜 测 当 前 的 文 本 ) 。 然
而,RNN 有一个明显的长期依赖性问题:当历史文本太长时,文本的有效信息无
法保存。鉴于此,裴颂文等人
[27]
提出了一种特殊的 RNN 结构 LSTM(long short-
term memory),该模型可以充分利用目标情绪词和句子中情绪极性词之间的
关系 。受到 该模 型的启 发,Xing 等人
[28]
提出 了一种 用于 情感分 析的 方面感 知
LSTM(aspect-aware LSTM,AALSTM),它在上下文建模阶段将方面信息整合
到 LSTM 单元中。该方法在给定方面保留有效信息,同时过滤掉给定方面的无
用信息,并且其最终的情绪表示更有效。
罗帆等人
[29]
将 RNN 与 CNN 相结合,提出了一种分层神经网络(hierarchical
RNN-CNN,H-RNN-CNN)作为表示情感分析文本的通用模型。为防止信息可
能在长文本中丢失,使用 CNN 来捕捉句子之间的关系。Rehman 等人
[30]
提出了
LSTM 和 深 层 CNN 的 混 合 模 型 用 于 情 感 分 析 。 与 基 于 CNN 的 方 法 或 基 于
LSTM 的方法相比,该模型具有更高的准确性,然而其更适合具有更多参数的小
数据集。Liu 等人
[31]
提出了一种混合模型,在 CNN 的基础上,通过 BiLSTM(bi-
directional long short-term memory)提取与文本上下文相关的全局特征,并融
合两个互补模型提取的特征。
2.2 基于 视觉 数 据 的 情感 分析
社交媒体中,人们常常在发布动态、观点等信息的同时会为其配上图像。
其原因在于图像不仅可以在情感方面影响其他人,而且也能够直接或间接地表
达发布人的态度和情感。“视觉情感分析”的主要目的有两点:一是模拟并检测
个人可观察表达的情绪;二是检测视觉媒体所发布的图像表达其作者或在观察
者中唤起的情绪。虽然前者从个人(或群体)中提取面部表情或身体姿态从而
判断情感的研究较为成熟,然而后者对于社交媒体中非语言情感表达的基于视
觉的情感分析领域研究还是一个较新的领域。在视觉情感分析中,“情感”表现为
人们与视觉元素互动的结果。鉴于情感总是朝向对象或实体,视觉情感同样被
定义为视觉内容中存在的对象、场景或事件。例如,一张展示美味食物的图像