CVPR2026 | LoD-Loc v3: 国防科大等提出基于实例轮廓对齐的密集城市场景通用无人机视觉定位
题目:LoD-Loc v3: Generalized Aerial Localization in Dense Cities using Instance Silhouette Alignment
会议:The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026
论文: https://arxiv.org/abs/2603.19609
数据: InsLoD-Loc(自建合成数据集)、UAVD4L-LoDv2、Swiss-EPFLv2、Tokyo-LoDv3
代码: https://nudt-sawlab.github.io/LoDLocv3/
年份: 2026
单位: 国防科技大学、西北工业大学

创新点
- 提出从语义轮廓对齐到实例轮廓对齐的范式转变,显著消除密集城市场景中的位姿估计歧义
- 构建了迄今最大的航拍实例分割数据集InsLoD-Loc(10万张图像,覆盖40个区域),实现跨场景零样本泛化
- 设计了LoD模型实例化方法,通过拓扑图分析为每栋建筑分配唯一标识符,支持实例级渲染与对齐
- 提出非对称匹配策略与加权代价函数,用于实例轮廓的精确位姿评估
背景
无人机视觉定位通过将视觉输入与地理参考地图匹配来估计相机位姿,是自主系统的核心技术。主流方法依赖高精度三维重建(如SfM点云或纹理网格),但此类模型构建成本高、数据量大且存在隐私隐患。
基于LoD城市模型的定位方法因LoD数据已在全球多个国家大规模建设而备受关注。前序工作LoD-Loc v2通过语义建筑轮廓对齐实现了低细节LoD1模型上的定位,但存在两大瓶颈:跨场景泛化能力差(训练数据不足导致)以及密集建筑场景定位失败(语义轮廓融合造成歧义)。LoD-Loc v3针对上述问题提出系统性解决方案。


浙公网安备 33010602011771号