SLAM(Simultaneous Localization and Mapping,同步定位与地图构建)是机器人、自动驾驶、增强现实等领域的核心技术
SLAM(Simultaneous Localization and Mapping,同步定位与地图构建)是机器人、自动驾驶、增强现实等领域的核心技术。简单来说,它的目标是让机器人在未知环境中,一边感知环境并构建地图,一边确定自身在地图中的位置。
核心思想
-
定位:回答“我在哪里?”——通过传感器数据推断自身的位姿(位置和姿态)。
-
建图:回答“环境是什么样?”——根据传感器观测构建环境模型(地图)。
-
同步:定位和建图相互依赖,必须同时进行。没有地图无法精确定位,没有定位无法构建一致的地图。
关键组成
-
传感器:
-
激光雷达(LiDAR):通过激光扫描获取环境的精确距离信息,常用于高精度地图构建。
-
摄像头(视觉SLAM):通过图像特征或直接像素信息进行定位和建图,成本低但受光照影响大。
-
惯性测量单元(IMU):测量加速度和角速度,辅助提高运动估计的稳定性。
-
深度相机(如RGB-D):直接获取环境的深度信息,简化三维重建。
-
-
算法框架:
-
前端(数据关联与里程计):处理传感器数据,估计相邻时刻的机器人运动(里程计),并进行特征匹配。
-
后端(优化):通过图优化或滤波方法,校正前端累积的误差,得到全局一致的地图和轨迹。
-
回环检测:识别是否回到之前访问过的地点,消除漂移误差。
-
地图表示:可以是栅格地图(用于导航)、特征点云地图(稀疏特征)或三维体素地图(稠密重建)。
-
主要技术流派
-
激光SLAM:基于激光雷达,稳定性高,在自动驾驶和室内机器人中广泛应用(如Google Cartographer)。
-
视觉SLAM(V-SLAM):
-
基于特征:如ORB-SLAM系列,通过提取和匹配图像特征点进行计算。
-
直接法:如LSD-SLAM、DSO,直接利用像素灰度信息,适合纹理缺失场景。
-
-
多传感器融合SLAM:结合视觉、IMU、轮式里程计等,提高鲁棒性(如VINS-Mono、LIO-SAM)。
典型应用
-
自动驾驶:车辆在未知城市道路中实时定位并生成高精地图。
-
扫地机器人:在房间内构建地图,规划清扫路径。
-
增强现实(AR):手机或AR眼镜跟踪自身位置,将虚拟物体叠加到真实场景。
-
无人机/机器人勘探:在灾难现场或洞穴中探索并绘制地图。
-
室内导航:商场、机场的室内定位与导览。
挑战与难点
-
计算效率:实时性要求高,尤其在资源受限的设备上。
-
动态环境:行人、车辆等移动物体干扰建图。
-
长期稳定性:环境变化(如光照、季节)可能导致地图失效。
-
尺度不确定性:单目视觉SLAM无法直接获取尺度,需借助IMU或先验信息。
通俗比喻
想象你被蒙上眼睛带入一个陌生房间,你只能用手触摸周围物体,边走边在脑中绘制房间布局,并随时估算自己所在位置——这就是SLAM的直观类比。

浙公网安备 33010602011771号