AAAI2020:提升深度立体匹配准确性的自适应单峰滤波方法
111 浏览量
更新于2024-08-29
收藏 676KB PDF 举报
"这篇论文是AAAI 2020会议上的一篇开源研究,由北京航空航天大学和深动科技合作完成,题目为“Adaptive Unimodal Cost Volume Filtering for Deep Stereo Matching”。研究主要关注深度立体匹配中的匹配代价体优化,通过引入自适应单峰分布的真值信息来提高立体视差估计的准确性。论文提供了源代码,可以在GitHub上找到(https://github.com/DeepMotionAIResearch/DenseMatch)。"
在计算机视觉领域,立体匹配是一项关键技术,用于确定图像对之间的对应像素间的距离(即视差),进而构建三维场景的深度信息。传统的立体匹配方法主要依赖于滑动窗口,而现代方法则更多地利用深度学习,将视差估计转化为一个回归问题。
深度学习的立体匹配模型通常包括匹配代价计算、代价聚合、视差回归和视差精修四个步骤。匹配代价体是这些模型的重要组成部分,它包含了不同像素对之间可能对应关系的成本信息。然而,现有的方法往往仅在最终的视差预测上计算损失,忽视了匹配代价体的训练监督,导致可能的过拟合。
针对这一问题,该论文提出了一个新的方法,即在匹配代价体中添加自适应的单峰约束。这个单峰约束位于真值视差附近,以监督匹配代价体的学习过程。此外,他们还设计了一个置信度估计网络,用于生成单峰分布的方差,反映了模型在不同纹理区域进行匹配的不确定性。这种方法提高了模型在处理复杂纹理区域时的鲁棒性。
论文中提到的AcfNet模型在2019年8月20日前,在KITTI 2012公开榜单上取得了第一的性能,在KITTI 2015上排名第四,显示了该方法的有效性。与DispNetC和iResNet(基于相关性的匹配代价计算)不同,AcfNet采用了GC-Net、PSMNet和GANet类似的3D卷积匹配代价计算方法,通过对匹配代价体进行自适应单峰滤波,提升了结果的精确度。
这篇研究为深度立体匹配带来了创新,通过增强匹配代价体的监督,优化了模型的性能,特别是在复杂环境下的视差估计。这一工作不仅推动了深度学习在立体匹配领域的应用,也为后续的研究提供了新的思路和工具。
2020-02-08 上传
2020-01-14 上传
2021-05-04 上传
2021-05-28 上传
2021-04-24 上传
2021-04-01 上传
2021-05-29 上传
2021-05-04 上传
2021-05-23 上传
weixin_38629920
- 粉丝: 6
- 资源: 914
最新资源
- pacific
- holbertonschool访谈
- 易语言DOS命令net的使用源码-易语言
- weather-app:使用Flask和OpenWeather API的Weather App
- ehchao88.github.io
- IT202-Spring2021-project2
- WWTBAM
- 易语言代码管理系统源码-易语言
- 行动中的春天:我在“行动中的春天”(第5版)中的练习中定义的“ Taco Cloud”应用程序的实现,Craig Walls,曼宁出版社
- Reach.io:亲密,故意和真实联系的应用程序
- 行业文档-设计装置-一种既有生土建筑土墙体木柱木梁加固装置.zip
- abesamma.github.io:您需要了解的所有关于我的信息
- magang-iris:IRIS源代码和实习进度的文档
- Recep_field_analysis
- 少儿涂色-易语言
- seriesflix