深度学习跟踪模型:联合表示与截断推理的创新应用

0 下载量 19 浏览量 更新于2024-06-20 收藏 924KB PDF 举报
"基于相关滤波器的联合表示和截断推理的深度学习跟踪模型" 在视觉跟踪领域,相关滤波器(CF)已经成为一种重要的技术,并在近年来取得了显著的进展,尤其在提升跟踪性能方面。传统的CF跟踪器通常包含两个关键部分:特征表示和在线模型自适应。特征表示负责从图像中提取有用信息,而模型自适应则确保跟踪器能随着目标外观的变化进行调整。 这篇论文聚焦于深度表示和模型自适应的联合学习,以克服现有离线深度学习模型中的一些限制。在现有的CF跟踪器中,模型自适应要么被忽视,要么采用封闭形式的解决方案,目的是简化端到端的深度表示学习。然而,这种方法可能无法充分利用CF模型的优势,导致跟踪准确性低于最先进的CF跟踪器。 作者们提出了一种新的方法,称为学习表示和截断推理模型(RTINet)。他们引入了一个更新器网络,该网络接收当前帧的表示、跟踪结果和上一帧的CF跟踪结果作为输入,以更有效地预测未来帧的目标位置。通过将表示器设计为卷积神经网络(CNN),他们对交替方向乘法器(ADMM)算法进行了截断,并将其转化为更新器的深度网络结构,从而实现更高效的学习和优化。 实验结果显示,RTINet跟踪器在跟踪精度上表现优秀,与当前最先进的跟踪器相媲美。值得注意的是,其快速版本还能以24fps的实时速度运行。这为实际应用提供了可能。论文还指出,代码和预训练模型将在https://github.com/tourmaline612/RTINet上公开,便于其他研究者复现和进一步开发。 关键词涵盖的领域包括视觉跟踪、相关滤波器、卷积神经网络以及展开优化。这些关键词强调了研究的核心技术和方法,表明了深度学习和优化技术在解决视觉跟踪问题中的关键作用。 在引言部分,作者回顾了CF方法的历史发展,从最初的基于手工特征如HOG和CN,到后来广泛采用的深度CNN特征。这种演变反映了特征表示的不断进步,以及深度学习在提升跟踪性能方面的贡献。结合特征表示和模型自适应的优化,RTINet的提出为视觉跟踪带来了新的思路,有望推动相关领域的进一步研究和发展。