相机+激光雷达+IMU融合的SLAM算法:系统设计、实现与评估
摘要
同时定位与建图(SLAM)是机器人自主导航的核心技术之一。单一传感器的SLAM系统受限于传感器本身的固有缺陷,在复杂环境中鲁棒性和稳定性较差。近年来,研究表明融合激光雷达、相机和IMU的多传感器SLAM系统能够通过传感器间的优势互补获得更优的性能。本文提出一种基于LVI-SAM框架的相机-激光雷达-IMU融合SLAM算法,针对传统激光-视觉-惯性融合系统的两大瓶颈——结构化环境中线特征约束不足以及几何相似场景中的闭环检测歧义——提出两项创新改进:一是引入基于局部线性分析的增强型线特征提取策略,将传统仅依赖高曲率角点的边缘约束扩展为点-线和点-面联合约束模型;二是在Scan-Context描述子中融合点云强度信息,构建几何-强度联合描述子以增强闭环检测的区分度。本文详细阐述系统的数学原理、因子图优化框架、算法流程和代码实现,并在KITTI公开数据集和自建数据集上进行三组对比实验。实验结果表明,所提算法在绝对轨迹误差(ATE)RMSE指标上相较于LIO-SAM和LVI-SAM分别降低了约24.8%和15.6%,验证了创新点的有效性。
关键词:多传感器融合SLAM;激光雷达-视觉-惯性融合;因子图优化;线特征提取;闭环检测
一、引言
1.1 研究背景与意义
同时定位与建图(SLAM)是智能移动机器人在未知环境中实现自主导航的基础性技术。SLAM系统需要在没有先验地图信息的情况下,利用自身搭载的传感器实时估计机器人的位姿(位