加州大学提出激光雷达与相机的同步时空参数标定法
以下内容来自小六的机器人SLAM学习圈知识星球每日更新内容
点击领取学习资料 → 机器人SLAM学习资料大礼包#论文# SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between LIDAR and Camera 论文地址:https://arxiv.org/abs/2207.03704作者单位:加州大学 借助多种输入模态的信息,基于传感器融合的算法通常优于单模态。具有互补语义和深度信息的相机和激光雷达是复杂驾驶环境中的典型传感器配置。然而,对于大多数相机和激光雷达融合的算法,传感器的标定将极大地影响性能。具体来说,检测算法通常需要多个传感器之间的精确几何关系作为输入,并且默认传感器的时间戳是同步的。配准这些传感器需要精心设计的标定装置和精确的同步机制,并且标定通常是离线完成的。在这项工作中,提出了一种基于分割的框架来联合估计相机激光雷达套件校准中的几何参数和时间参数。
首先将语义分割掩模应用于两种传感器模态,并通过逐像素双向损失来优化校准参数。我们特别结合了来自光流的速度信息作为时间参数。由于监督仅在分割级别执行,因此在框架内不需要校准标签。所提出的算法在KITTI数据集上进行了测试,结果表明几何参数和时间参数都得到了准确的实时校准。 这项工作提出了一个自动驾驶平台上激光雷达和相机之间的联合时空校准框架。所提出的框架的输入是相机和激光雷达帧的序列。这里,每个传感器模态都通过任意的语义分割网络进行处理,可以根据可用的训练数据进行选择。其次,将分割的LIDAR点云投影到语义图像上,计算新设计的双向对准损失,用于几何参数回归。不仅限于点对像素的损失,我们还对语义像素进行了点对点损失的下采样。估计两者之间的时间延迟,我们从两个连续的图像中估计视觉里程计,并预测用于匹配的偏移点云。 本文贡献如下: 1、为激光雷达相机传感器套件提出了一种联合时空标定算法; 2、设计双向损失是为了在几何参数回归中获得更稳健的性能; 3、将时间参数与视觉里程计相结合,以估计传感器之间的时间延迟。






以上内容来自小六的机器人SLAM学习圈知识星球每日更新内容