CMU-MOSI和CMU-MOSEI数据集的来源
时间: 2023-06-13 12:07:46 浏览: 369
CMU-MOSI (Multimodal Corpus of Sentiment Intensity) 和 CMU-MOSEI (Multimodal Corpus of Sentiment and Emotion Intensity) 数据集都是由美国卡内基梅隆大学 (Carnegie Mellon University, CMU) 的语言技术研究中心 (Language Technologies Institute, LTI) 开发的。
CMU-MOSI 数据集包含了从 YouTube 视频中提取的音频、视频和文本数据,总共包括93个参与者,共计2199个视频片段。每个视频片段都被标注了情感强度,涵盖了7种情感状态,包括愤怒、悲伤、厌恶、惊讶、高兴、中性和无法确定。
CMU-MOSEI 数据集则包含了从 YouTube 视频中提取的音频、视频、文本和生理数据,共计23个参与者,共计2283个视频片段。每个视频片段都被标注了情感和情感强度,涵盖了13种情感状态,包括愤怒、悲伤、厌恶、惊讶、高兴、中性、无法确定、紧张、轻松、兴奋、疲惫、希望和失望。
相关问题
CMU-MOSI和CMU-MOSEI数据集的来源以及具体的数据
CMU-MOSI和CMU-MOSEI是Carnegie Mellon University (CMU)的两个多模态情感分析数据集。
CMU-MOSI数据集包括2199个视频,每个视频都有人类注释的情感标签和语音、文本和图像的特征。这些视频是从MOSEI数据集中精选出来的,以便注重情感和多模态性。每个视频的特征包括语音MFCC、面部动作、文本情感标签、情感词汇使用、情感观点和情感强度。
CMU-MOSEI数据集包括1071个视频,每个视频都有人类注释的情感标签和语音、文本和视觉的特征。这些视频包括电影、电视节目和TED演讲等多种类型。每个视频的特征包括语音MFCC、文本情感标签、视觉特征(如人脸、场景和对象)以及情感观点和情感强度。
这两个数据集的来源是通过在互联网上搜集视频、文本和音频,并由专业的标注员进行标注。这些数据集是为情感分析、多模态学习、情感识别和其他相关研究提供了重要的基础数据。
CMU-MOSI数据集
CMU-MOSI数据集是一个多模态情感数据集,包括视频、音频和文本数据。该数据集由卡内基梅隆大学的研究人员收集,旨在为情感识别、情感分析和多模态情感分析等任务提供基准数据。该数据集包括超过93小时的视频数据、39个发言人、23,453个句子和约一千万个单词。数据集中的情感标签基于VA-Affect模型的维度,即情感的价值、唤醒和支配。此外,该数据集还包括音频和文本特征,以支持多模态情感分析任务。该数据集已被广泛应用于情感识别、情感分析和多模态情感分析的研究中,是一个非常有用的资源。
阅读全文