欢迎光临散文网 会员登陆 & 注册

单目视觉惯性深度估计:融合多传感器实现高精度定位

2023-05-11 10:19 作者:计算机视觉life  | 我要投稿

以下内容来自小六的机器人SLAM学习圈知识星球每日更新内容

点击领取学习资料 → 机器人SLAM学习资料大礼包

#论文# Monocular Visual-Inertial Depth Estimation

论文地址:https://arxiv.org/abs/2303.12134

作者单位:英特尔

我们提出了一种视觉-惯性深度估计方法,它结合了单目深度估计和视觉惯性里程计,以产生稠密的公制尺度的深度估计。我们的方法针对稀疏度量深度执行全局尺度和移位对齐,然后进行基于学习的稠密对齐。我们在TartanAir和VOID数据集上进行了评估,观察到与仅执行全局比对相比,密集比对的反向RMSE减少了30%。我们的方法在低密度下尤其具有竞争力;仅有150个稀疏度量深度点,我们的稠密到稠密深度对齐方法比KBNet的稀疏到稠密深度对齐方法实现了50%以上的iRMSE降低,这是目前关于VOID的最先进水平。我们成功地演示了从合成TartanAir到真实世界空洞数据的零激发转换,并在NYUv2和VCU-RVI上进行了泛化测试。我们的方法是模块化的,并且与各种单目深度估计模型兼容。

我们的方法执行单目深度估计与稀疏度量深度的最小二乘拟合,然后学习每像素的局部调整。这种全局和局部深度对齐的组合成功地校正了公制尺度,稠密对齐始终优于纯粹的全局对齐基线。仅需150米深度锚点就可成功对齐,并且对零激发交叉数据集传输具有很强的健壮性。我们的流程是模块化的,与所使用的单目深度估计模型和VIO系统无关;

图片
图片
图片
图片
图片
图片

以上内容来自小六的机器人SLAM学习圈知识星球每日更新内容



单目视觉惯性深度估计:融合多传感器实现高精度定位的评论 (共 条)

分享到微博请遵守国家法律