自动驾驶中的3D目标定位与相机运动估计:基于立体视觉的新方法

0 下载量 198 浏览量 更新于2024-06-20 收藏 1.66MB PDF 举报
"基于立体视觉的自主驾驶中的3D动态目标定位和相机自运动估计" 在自动驾驶技术中,准确地定位3D动态目标并估计相机的自我运动是至关重要的。这篇论文提出了一种创新的方法,它针对的是当前3D对象检测和视觉SLAM方法在自动驾驶场景中的局限性。传统的端到端3D对象检测方法需要大量标注数据,而SLAM方法可能无法很好地处理动态环境。为了解决这些问题,研究者们从香港科技大学提出了一个基于立体视觉的方案。 首先,他们放弃了直接的3D包围盒回归,而是采用易于获取的2D对象检测结果和离散视角分类。这种方法降低了训练数据的需求,只需要2D图像标注即可。通过结合2D信息和轻量级的语义推理,他们能够获得粗略的3D对象测量,这有助于解决实例3D检测的帧间不一致性问题。 接着,为了实现连续的3D目标定位和相机位姿跟踪,研究者们提出了一种动态目标光束平差(BA)方法,该方法结合了目标感知辅助的相机位姿跟踪。此方法对动态环境有较强的鲁棒性,并能估计出具有实例精度和时间一致性的三维目标位置、速度以及动态点云的锚定点。 此外,他们还引入了一个语义三维测量模型,进一步增强了定位和运动估计的准确性。整个系统的性能在各种情况下得到了验证,包括自我运动估计和对象定位,与现有的先进解决方案进行了比较,显示了其优越性。 关键词如语义SLAM(语义同步定位与建图)、三维目标定位和视觉里程计强调了研究的核心内容。语义SLAM允许系统理解环境的语义信息,而三维目标定位则是为了精确地识别和跟踪移动的物体。视觉里程计则负责估计相机在连续帧间的运动,这对自动驾驶车辆的导航至关重要。 论文中提到的系统在长期的行驶历史中可以跟踪相机和所有物体的3D轨迹,并能在极端情况下(如汽车被截断)保持准确的跟踪能力。通过立体特征匹配和动态3D稀疏特征恢复,系统能够在复杂环境中实现一致的运动和方向估计。 这项工作为自动驾驶领域的3D目标定位和相机运动估计提供了一个有效且实用的新方法,解决了当前方法的一些关键挑战,提高了自动驾驶的安全性和可靠性。