深度对抗性注意力对齐:提升无监督域自适应性能

0 下载量 116 浏览量 更新于2024-06-20 收藏 978KB PDF 举报
本文主要探讨了无监督域自适应(UDA)在深度学习中的应用,特别是在视觉分类任务中的迁移学习。作者们提出了一种新颖的方法,旨在解决在源域训练的模型在目标域性能下降的问题,其中目标域数据是未标记的。他们的工作集中在以下几个核心方面: 1. 深度对抗性注意力对齐:不同于传统的UDA方法,如通过调整全连接层(FC)的激活来对齐不同域的高级表示,作者们关注到了卷积层的重要性。他们假设图像中的某些关键特征(如判别区域)对风格变化相对稳定,因此设计了一个注意力对齐机制,将这种共享的知识传递到所有目标卷积层。这种方法能够更好地保留低级领域的关键信息。 2. 改进的伪标签估计:针对迭代地更新目标网络伪标签的传统做法可能受到标签估计误差的影响,作者们提出利用类别分布来计算训练的交叉熵损失,以此减少错误累积。这样不仅提高了标签估计的准确性,还提升了整体的模型性能。 3. 实验结果:通过在Office-31数据集上的实验证明,与最先进的UDA方法相比,他们的方法取得了显著的优势,性能提升达到了+2.6%。这表明了注意力对齐和优化伪标签策略的有效性。 总结来说,这篇文章在无监督域自适应领域做出两大创新:一是引入了深度对抗性注意力对齐,关注卷积层的知识转移;二是采用类别分布的交叉熵损失来提升伪标签的质量。这些创新策略有助于提高模型在跨域迁移学习中的适应性和泛化能力。