泡泡一分钟:Scan Context: Egocentric Spatial Descriptor for Place Recognition within 3D Point Cloud Map

Scan Context: Egocentric Spatial Descriptor for Place Recognition within 3D Point Cloud Map

扫描上下文:用于3D点云地图中场景识别的自我中心空间描述符

https://pan.baidu.com/s/1QNKBiIu5qa77TXZXPNgO0g

Giseop Kim Ayoung Kim

摘要

与用于视觉场景的各种特征检测器和描述符相比,使用结构信息描述地点的报道相对较少。同步定位和地图构建(SLAM)的最新进展提供了密集的环境3D地图,并且由不同的传感器提出了定位。针对基于结构信息的全局定位,我们提出了扫描上下文,一种来自3D光检测和测距(LiDAR)扫描的基于非直方图的全局描述符。与先前报道的方法不同,所提出的方法直接记录来自传感器的可见空间的3D结构,并且不依赖于直方图或先前的训练。另外,该方法提出使用相似性得分来计算两个扫描上下文之间的距离,并且还提出用于有效地检测环路的两阶段搜索算法。扫描上下文及其搜索算法使回环检测对LiDAR视点变化不变,以便可以在反向重访和角落等位置检测回环。已经通过3D LiDAR扫描的各种基准数据集评估了扫描上下文性能,并且所提出的方法显示出足够改进的性能。

Compared to diverse feature detectors and descriptors used for visual scenes, describing a place using structural information is relatively less reported. Recent advances in simultaneous localization and mapping (SLAM) provides dense 3D maps of the environment and the localization is proposed by diverse sensors. Toward the global localization based on the structural information, we propose Scan Context, a nonhistogram-based global descriptor from 3D Light Detection and Ranging (LiDAR) scans. Unlike previously reported methods, the proposed approach directly records a 3D structure of a visible space from a sensor and does not rely on a histogram or on prior training. In addition, this approach proposes the use of a similarity score to calculate the distance between two scan contexts and also a two-phase search algorithm to efficiently detect a loop. Scan context and its search algorithm make loopdetection invariant to LiDAR viewpoint changes so that loops can be detected in places such as reverse revisit and corner. Scan context performance has been evaluated via various benchmark datasets of 3D LiDAR scans, and the proposed method shows a sufficiently improved performance.

I. INTRODUCTION

在许多机器人应用中,位置识别是重要的问题。特别是对于SLAM,这种识别提供了闭环的候选,这对于校正漂移误差和构建全局一致的建图是必不可少的[1]。虽然闭环对于机器人导航至关重要,但错误的注册可能是灾难性的,需要仔细注册。视觉识别与相机传感器的广泛使用一起受欢迎,然而,由于照明变化和短期(例如,移动物体)或长期(例如,季节)变化,视觉识别本质上是困难的。类似的环境可能发生在不同的位置,经常导致感知混叠。因此,最近的文献通过检查表示[2]和弹性后端[3]来关注强大的位置识别。

与这些视觉传感器不同,激光雷达最近因其对感知方差的强不变性而引起了人们的关注。在早期,传统的本地关键点描述符[4,5,6,7]最初是为计算机视觉中的3D模型设计的,尽管它们易受噪声影响,但已被用于场所识别。基于LiDAR的位置识别方法已在机器人文献[8,9,10]中得到广泛应用。这些工作集中于从本地[8]和全球方式[10]中的结构信息(例如点云)开发描述符。现有的基于LiDAR的场所识别方法一直试图克服两个问题。首先,无论视点变化如何,都需要描述符来实现旋转不变性。其次,噪声处理是这些空间描述符的另一个主题,因为点云的分辨率随距离而变化,并且法线有噪声。现有方法主要使用直方图[9,11,12]来解决上述两个问题。然而,由于直方图方法仅提供场景的随机索引,因此描述场景的详细结构并不简单。这种限制使得描述符对于位置识别问题更不易辨别,从而导致潜在的误报。在本文中,我们介绍了扫描上下文,一种带有匹配算法的新型空间描述符,专门针对使用单个3D扫描的室外场所识别。我们的表示将3D扫描中的整个点云编码为矩阵(图1)。所提出的表示描述了以自我为中心的2.5D信息。该方法的贡献点是:

Efficient bin encoding function.Efficient bin encoding function.

高效的bin编码功能。

在本文中,我们提出了一种称为扫描上下文的新型位置描述符,它将3D扫描的点云编码为矩阵。扫描上下文可以被视为形状上下文[7]的扩展,用于针对3D LiDAR扫描数据的位置识别。具体地,扫描上下文具有三个组件:保存每个区间中的点云的绝对位置信息的表示,有效区间编码功能和两步搜索算法。

III. SCAN CONTEXT FOR PLACE RECOGNITION

IV. EXPERIMENTAL EVALUATION

V. CONCLUSION

在本文中,我们提出了一个空间描述符,扫描上下文,将一个地方概括为一个矩阵,明确描述了一个以自我为中心的环境的2.5D结构信息。与使用点云的现有全局描述符相比,扫描上下文在各种数据集中显示出更高的环路检测性能。

在未来的工作中,我们计划通过引入其他层来扩展扫描上下文。也就是说,即使对于具有高度重复结构的数据集,例如Complex Urban LiDAR数据集,也可以使用其他bin编码函数(例如,bin的语义信息)来提高性能。

 

posted @ 2018-11-24 22:29  feifanren  阅读(513)  评论(0)    收藏  举报