它来了,它来了.ORB_SLAM3走来了

小白学视觉

共 893字,需浏览 2分钟

 ·

2020-07-26 03:22

点击上方小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达96bb5b10e052263a40900170198d7a43.webp

在2015年,Juan D. Tardos等人发布了ORB_SLAM2.

2020年暑假,全新 ORB_SLAM3上线啦!!

e045c36ab048dcd1392ad340ea189586.webp

哎,学不过来了!

论文地址

https://arxiv.org/abs/2007.11898

代码地址

https://github.com/UZ-SLAMLab/ORB_SLAM3

目前代码还不能在GitHub上搜到,毕竟论文刚刚发表,过几天应该就能搜到了.

系统组成

fbb294cbbeaa748a6a7c2ed00f26aa3c.webp

数据集测试

官方给了六个视频,这里分享一下

概要

本文介绍了ORB-SLAM3,这是第一个能够用单目、立体和RGB-D相机,使用针孔和鱼眼镜头模型进行视觉、视觉惯性和多地图SLAM的系统.

第一个主要的创新是一个基于特征的紧密集成视觉惯性SLAM系统,它完全依赖于最大后验概率MAP估计,甚至在IMU初始化阶段也是如此.其在小型和大型,室内和室外环境中都能稳定地运行,并且比以前的方法精确2到5倍.

第二个主要的创新是一个多地图系统(multi-map),它依赖于一种新的位置识别方法和改进的召回,多亏了它,ORB_SLAM3能够在长时间的恶劣视觉信息下生存;当它丢失时,它会启动一个新的地图,当重新访问地图区域时,它将与以前的地图无缝地合并.

与只使用最后几秒信息的视觉里程计系统相比,ORB_SLAM3是第一个能够在所有算法阶段重用所有先验信息的系统.这允许包含BA调整共视关键帧,这些关键帧提供了高视差观测,提高了精度.

我们的实验表明,在所有的传感器配置中,ORB_SLAM3与文献中可用的最佳系统一样鲁棒,并且更精确.值得注意的是,我们的立体惯性SLAM在EuRoC无人机上的平均精度为3.6cm,在TUM-VI数据集(AR/VR场景的一个典型设置)中,快速手持移动时的平均精度为9mm,最后,我们开源了代码.

实验结果

按时间顺序总结的最具代表性的视觉和视觉惯性系统

d9904c8b63a4ac36bf5e6cbea5e38dcd.webp

下图为EuRoC数据集的性能比较:

faa50b932669a35db5b85eb63ddc9c10.webp

除特别说明外,我们展示了每个系统的作者报告的结果,对轨迹中的所有帧与处理后的GT进行比较.

其他结果

a94cce2906886b78ae499251525a73fa.webp

da0b4ce307152c6daa40ae16aa2504d1.webp

16750ecedd55fee0d16ef34e329b5021.webp

031bd7f9a0f5de41bda4e89055ebd5f8.webp

08570e329821e3350f5aa55787096e84.webp

2c36a3035469b5baafb1ce33fcf3eb11.webp



浏览 21
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报