深度学习驱动的红外与可见光融合跟踪技术

17 下载量 46 浏览量 更新于2024-08-27 6 收藏 10.73MB PDF 举报
"基于深度学习的红外与可见光决策级融合跟踪" 本文提出了一种创新性的目标跟踪方法,主要关注于红外与可见光图像的决策级融合跟踪。在现代的机器视觉领域,目标跟踪是一个关键任务,它涉及到在连续的视频序列中定位和追踪特定对象。传统的跟踪方法常常受限于光照变化、遮挡以及背景复杂性等问题,而深度学习的引入为解决这些问题提供了新的可能。 首先,该方法建立了一个参数传递模型,这个模型可以从现有的基于深度学习的检测模型中提取出指定对象的可见光检测模型。这种可见光检测模型能够对目标进行有效的识别,特别是在光照充足的情况下。然后,将这个模型作为红外检测的预训练模型,利用红外图像数据集进行微调,使得模型能适应红外图像的特性,从而得到一个专门针对红外图像的深度学习检测模型。 接下来,作者们构建了一个基于深度学习的红外与可见光决策级融合跟踪模型。在这个模型中,红外和可见光两种波段的检测结果在决策层进行融合,提高了跟踪的准确性。这种方法充分利用了两种不同波段图像的优势,红外图像对温度差异敏感,适合在低光照或遮挡环境下识别目标,而可见光图像则在色彩和纹理信息上更丰富,有利于在光照良好的环境中识别目标。 通过对比实验,作者们展示了所提方法相对于单波段跟踪的优越性。实验结果显示,决策级融合跟踪不仅提升了跟踪精度,还提高了跟踪的成功率,表现出更好的鲁棒性,即使在目标出现部分遮挡、快速运动或者光照条件变化等挑战情况下,也能保持稳定的跟踪性能。 这项工作为多模态目标跟踪提供了一个有力的工具,尤其是在复杂的环境条件下。它不仅深化了我们对深度学习在红外与可见光融合跟踪中的理解,也为未来相关领域的研究开辟了新的方向。同时,这种融合方法也有可能被应用到其他多模态传感器的数据处理中,如雷达与光学传感器的融合,以提高目标识别和跟踪的效率和可靠性。