视觉-激光雷达融合定位与建图:低漂移、鲁棒且高效

需积分: 50 4 下载量 109 浏览量 更新于2024-09-05 收藏 3.77MB PDF 举报
本文探讨了一种结合视觉与激光雷达(LiDAR)的低成本立体视觉惯性定位系统(Visual-LiDAR Odometry and Mapping, VLOAM),其核心在于利用多态约束卡尔曼滤波(Multi-State Constraint Kalman Filter, MSCKF)为基础的视觉惯性导航(Visual-Inertial Odometry, VIO),同时利用预先构建的LiDAR地图提供有界误差的三维导航。相较于传统VIO,该方法引入了一个关键创新:除了标准的稀疏视觉特征测量,还融合了视觉半密集云与LiDAR地图的全局注册信息。这一跨模态约束有助于纠正VIO中的累积漂移问题,提高了系统的稳定性和准确性。 在MSCKF的更新过程中,这种紧耦合策略充分利用了视觉和激光雷达数据之间的联系,使得在运动场景下,如快速移动、剧烈运动或视觉特征不足时,系统的鲁棒性显著提升。特别关注的是,对于不同感知模态创建的云点之间进行全球匹配,进一步增强了导航性能,并确保了在实际应用中的高精度。 论文通过蒙特卡洛仿真和实际世界实验验证了这一方法的有效性。结果显示,该VLOAM方法在KITTI odometry基准测试中排名首位,平均翻译和旋转误差极低,仅有0.75%的相对位置漂移。除了评估运动估计的精度,作者还着重考察了系统在高速运动和环境光照变化条件下的鲁棒性,表明该技术在极端条件下也能保持稳定表现。 本文提出的视觉-激光雷达融合定位框架在降低漂移、增强鲁棒性以及实时性方面具有显著优势,是当前SLAM(Simultaneous Localization and Mapping)领域的前沿研究,对提高自主导航系统的实用性具有重要价值。