北京理工提出单双目结合的紧耦合VIO,效果优于VINS-FUSION!

以下内容来自小六的机器人SLAM学习圈知识星球每日更新内容
点击领取学习资料 → 机器人SLAM学习资料大礼包
#论文# UMS-VINS: United Monocular-Stereo Features for Visual-Inertial Tightly Coupled Odometry
论文地址:https://arxiv.org/pdf/2303.08550.pdf
作者单位:北京理工大学
将单目和双目相结合的特征引入视觉惯性紧耦合里程计(UMS-VINS)中,用于稳健的位姿估计。UMS-VINS需要两个相机和一个低成本的惯性测量单元(IMU)。UMS-VINS是VINS融合的进化,它从以下三个角度对VINS融合进行了修改。
1)UMS-VINS从亚像素平面提取和跟踪特征,以获得更好的特征位置。
2)UMS-VINS从左摄像头和/或右摄像头引入了额外的二维功能。
3)如果视觉初始化失败,则直接利用IMU传播进行姿态估计,如果视觉-IMU对准失败,则UMS-VINS通过视觉里程估计姿态。在公共数据集和新的真实世界实验上的性能表明,UMSVINS在定位精度、定位鲁棒性和环境适应性方面都优于VINS-Fusion。
本文贡献如下:
1、所提出的UMS-VINS算法保证了视觉惯性系统的成功初始化,即使机器人是从静止状态或具有自由度退化的运动状态初始化的。
2、VIO与从亚像素图像中提取的3D和2D特征紧密耦合,即使在无纹理的环境中也能保证更高质量的特征,大大提高了VIO的稳健性。
3、公开的数据集和新的真实世界实验都表明,UMS-VINS在定位精度、鲁棒性和环境适应性方面都优于VINS-FUSION。









以上内容来自小六的机器人SLAM学习圈 每日更新内容