单目视觉惯性深度估计:融合多传感器实现高精度定位

以下内容来自小六的机器人SLAM学习圈知识星球每日更新内容
点击领取学习资料 → 机器人SLAM学习资料大礼包
#论文# Monocular Visual-Inertial Depth Estimation
论文地址:https://arxiv.org/abs/2303.12134
作者单位:英特尔
我们提出了一种视觉-惯性深度估计方法,它结合了单目深度估计和视觉惯性里程计,以产生稠密的公制尺度的深度估计。我们的方法针对稀疏度量深度执行全局尺度和移位对齐,然后进行基于学习的稠密对齐。我们在TartanAir和VOID数据集上进行了评估,观察到与仅执行全局比对相比,密集比对的反向RMSE减少了30%。我们的方法在低密度下尤其具有竞争力;仅有150个稀疏度量深度点,我们的稠密到稠密深度对齐方法比KBNet的稀疏到稠密深度对齐方法实现了50%以上的iRMSE降低,这是目前关于VOID的最先进水平。我们成功地演示了从合成TartanAir到真实世界空洞数据的零激发转换,并在NYUv2和VCU-RVI上进行了泛化测试。我们的方法是模块化的,并且与各种单目深度估计模型兼容。
我们的方法执行单目深度估计与稀疏度量深度的最小二乘拟合,然后学习每像素的局部调整。这种全局和局部深度对齐的组合成功地校正了公制尺度,稠密对齐始终优于纯粹的全局对齐基线。仅需150米深度锚点就可成功对齐,并且对零激发交叉数据集传输具有很强的健壮性。我们的流程是模块化的,与所使用的单目深度估计模型和VIO系统无关;






以上内容来自小六的机器人SLAM学习圈知识星球每日更新内容