高效大场景立体匹配算法:加速百万像素图像深度估计

需积分: 0 4 下载量 195 浏览量 更新于2024-08-05 收藏 5.51MB PDF 举报
"这篇文章主要介绍了一种高效的大规模立体匹配方法,旨在快速处理高分辨率图像的匹配问题。该方法通过建立视差的先验,在支持点上进行三角测量,减少了匹配模糊度,实现了精确的密集重建。同时,该方法能自动确定视差范围并易于并行化,适用于自动驾驶等实际应用。在Middlebury基准测试中,该方法显示了高级别的性能,且能在单个CPU核心上快速处理百万像素图像对的左右视差图。" 在计算机视觉领域,立体匹配是估算两幅图像间对应像素深度的关键技术,这对于三维重建、自动驾驶等应用至关重要。传统的立体匹配方法通常分为基于局部对应和全局对应两大类。基于局部对应的方法(如SIFT、SURF)速度快,但受限于窗口大小的选择,可能造成匹配率低或边界溢出的问题,尤其是在处理纹理稀疏或模糊的区域时。 而基于全局对应的方法,如采用马尔可夫随机场(MRF)模型的算法,通过平滑约束来提高匹配质量,可以解决局部方法的一些不足。然而,这些方法通常需要解决NP-hard问题,计算复杂度高,对于高分辨率图像来说,执行速度慢且内存需求大。 文章提出的高效大场景立体匹配方法创新地结合了两者的优势。它在一组稳健的匹配支持点上构建三角测量,减少了匹配不确定性,这有助于有效地利用视差搜索空间,而无需全局优化。此外,这种方法能够自动确定合适的视差范围,简化了参数调整,并且可以方便地进行并行计算,极大地提高了处理速度。 在Middlebury基准测试中,该方法表现出了优秀的性能,显著提高了处理速度,例如,能够在单个CPU核心上在一秒钟内完成一对百万像素图像的视差图计算。这样的效率对于实时应用如自动驾驶系统来说至关重要,因为它允许快速准确地获取深度信息,进而做出及时的决策。 这项工作为大规模立体匹配提供了一个新的解决方案,不仅提高了匹配精度,还降低了计算资源的需求,对实时和大规模的3D视觉任务具有重要的实用价值。