中心损失提升深度CNN人脸识别:增强特征区分度

需积分: 13 2 下载量 37 浏览量 更新于2024-07-18 收藏 2.89MB PDF 举报
深度卷积神经网络(Deep Convolutional Neural Networks, DCNN)在计算机视觉领域取得了显著成就,极大地推动了该领域的技术进步。传统的DCNN模型通常依赖于softmax损失函数作为训练深度模型的主要指导信号,它主要用于多类分类任务,通过最大化类别间的区分度来优化网络参数。然而,为了进一步提升深度特征的辨别能力,本文提出了一种新的监督信号,称为中心损失(Center Loss),特别针对人脸识别任务进行设计。 中心损失的核心思想是为每个类别学习一个中心点,即类中心,同时对深度特征与它们所属类别中心之间的距离进行惩罚。具体来说,对于每个样本,中心损失不仅关注其所属类别,还关注其特征向量与该类别中心的相对位置。这样做的好处在于,它能够促进网络学习到更加区分性的特征表示,使得同类样本的特征更加聚集,而不同类样本间的距离则增大,从而提高识别的准确性和鲁棒性。 本文证明了中心损失在深度学习框架中是可训练且易于优化的。相比于softmax损失,中心损失的引入并不增加计算复杂度,因为它的计算主要集中在类中心的更新上,而softmax则关注的是每个类别的概率分布。联合使用softmax和中心损失进行训练,可以形成一种互补的优势,既保持了类别间的明确区分,又增强了特征内部的紧凑性,这对于提升人脸识别的性能至关重要。 在实践中,中心损失可以通过梯度下降等优化算法与softmax损失一起应用于CNN的后层,例如全连接层。在每一轮迭代中,网络不仅更新权重以减小softmax交叉熵误差,还会调整类中心的位置,使得类内特征更加集中。这种方法在如LFW、CASIA-WebFace等人脸识别基准数据集上进行了验证,并展示了明显的性能提升。 中心损失作为一种有效的补充监督机制,为深度人脸识别模型提供了增强特征区分性的新视角,促进了计算机视觉领域尤其是人脸识别任务的进一步发展。它展示了将传统损失函数与创新思想相结合的强大潜力,对于提升深度学习模型的性能和鲁棒性具有重要意义。