IEMOCAP数据集
时间: 2023-10-23 07:08:37 浏览: 181
IEMOCAP数据集是一个行动,多模态和多扬声器数据库,由南加州大学的SAIL实验室收集。它包含大约12小时的视听数据,包括视频,语音,面部动作捕捉和文本转录。该数据集由二元会议组成,演员在其中表演即兴创作或脚本场景,旨在引发情感表达。IEMOCAP数据库被注释为分类标签,例如愤怒,快乐,悲伤,中立性,以及维度标签,例如价,激活和支配。该数据集的详细动作捕捉信息,引发真实情感的交互式设置以及其大小使其成为研究和建模多模态和富有表现力的人类交流的宝贵资源。\[1\]
#### 引用[.reference_title]
- *1* [多模态情感识别(MER)数据集整理](https://blog.csdn.net/NLH_tutu/article/details/125037361)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* *3* [IEMOCAP数据集分析](https://blog.csdn.net/m0_46979525/article/details/121071328)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文