动态人脸表情识别:多视觉与音频特征融合算法

需积分: 3 0 下载量 112 浏览量 更新于2024-09-02 收藏 4.09MB PDF 举报
"基于多视觉描述子及音频特征的动态序列人脸表情识别",这篇文章主要探讨了一种在非约束环境下的人脸动态表情识别方法,利用多视觉描述子和音频特征来提升识别效果。 动态序列人脸表情识别是当前研究的一个热点,它在安全驾驶、市场营销、临床医学等领域有着广泛的应用前景。作者李宏菲、李庆、周莉等人对此进行了深入研究,他们提出了一种融合多视觉描述子和音频特征的动态表情识别算法。这一算法的核心在于,通过多视觉描述子来捕捉面部表情的时空局部特征,从而有效地提取动态表情的特征。同时,结合视频和音频信息,通过融合策略来增强表情识别的准确性。 文章中提到,为了处理不同时长的动态表情序列,采用了协方差矩阵和时间轴分段的动态规整方法,确保了不同长度的样本都能得到恰当的描述。为了提高模型的泛化性能,作者引入了集成识别模型,该模型基于多个个体识别模型的加权投票。在权重学习方面,他们提出了两种方法:一种是基于随机重采样的投票权重学习,另一种则是基于个体分类模型相对优势的投票权重学习。这两种方法都旨在优化投票过程,进一步提升表情识别的性能。 实验部分,研究人员使用了AFEW5.0动态表情库进行验证,结果证明了所提算法的有效性。关键词包括动态表情识别、多视觉描述子、集成分类器和权重学习。该研究为理解和改进人脸识别技术,特别是在动态表情识别领域,提供了新的视角和实用的解决方案。 这篇论文发表在2019年8月的《电子学报》第47卷第8期,属于中图分类号下的相关研究,并具有A类文献标识码。文章的DOI为10.3969/j.issn.0372-2112.2019.08.006,可通过提供的URL访问电子版全文。