AAAI2020:提升深度立体匹配准确性的自适应单峰滤波方法

1 下载量 149 浏览量 更新于2024-08-29 收藏 676KB PDF 举报
"这篇论文是AAAI 2020会议上的一篇开源研究,由北京航空航天大学和深动科技合作完成,题目为“Adaptive Unimodal Cost Volume Filtering for Deep Stereo Matching”。研究主要关注深度立体匹配中的匹配代价体优化,通过引入自适应单峰分布的真值信息来提高立体视差估计的准确性。论文提供了源代码,可以在GitHub上找到(https://github.com/DeepMotionAIResearch/DenseMatch)。" 在计算机视觉领域,立体匹配是一项关键技术,用于确定图像对之间的对应像素间的距离(即视差),进而构建三维场景的深度信息。传统的立体匹配方法主要依赖于滑动窗口,而现代方法则更多地利用深度学习,将视差估计转化为一个回归问题。 深度学习的立体匹配模型通常包括匹配代价计算、代价聚合、视差回归和视差精修四个步骤。匹配代价体是这些模型的重要组成部分,它包含了不同像素对之间可能对应关系的成本信息。然而,现有的方法往往仅在最终的视差预测上计算损失,忽视了匹配代价体的训练监督,导致可能的过拟合。 针对这一问题,该论文提出了一个新的方法,即在匹配代价体中添加自适应的单峰约束。这个单峰约束位于真值视差附近,以监督匹配代价体的学习过程。此外,他们还设计了一个置信度估计网络,用于生成单峰分布的方差,反映了模型在不同纹理区域进行匹配的不确定性。这种方法提高了模型在处理复杂纹理区域时的鲁棒性。 论文中提到的AcfNet模型在2019年8月20日前,在KITTI 2012公开榜单上取得了第一的性能,在KITTI 2015上排名第四,显示了该方法的有效性。与DispNetC和iResNet(基于相关性的匹配代价计算)不同,AcfNet采用了GC-Net、PSMNet和GANet类似的3D卷积匹配代价计算方法,通过对匹配代价体进行自适应单峰滤波,提升了结果的精确度。 这篇研究为深度立体匹配带来了创新,通过增强匹配代价体的监督,优化了模型的性能,特别是在复杂环境下的视差估计。这一工作不仅推动了深度学习在立体匹配领域的应用,也为后续的研究提供了新的思路和工具。