论文解读 | 基于视觉SLAM方法的移动机器人三维定位与映射分析
原创 | 文 BFT机器人

01
摘要
移动机器人所需的基本任务之一是其工作环境的自主和安全导航。但是,在许多情况下,环境模型或地图不可用于执行此任务。
事实上,导航需要对地图的位置进行永久估计,而这在未知环境中不可用。在这种情况下,机器人必须具有扩展功能,以同时解决定位和映射问题。这两个问题的同时解决被称为SLAM(同时定位和映射),是一个复杂的问题,尚未被科学界完全解决。这是因为本地化需要一张尚未可用的地图,因为它仍在建设中。
反过来,地图的制作需要估计机器人的位置。这就是为什么SLAM被归类为类似于鸡和蛋问题的原因。在机器人面对未知环境的情况下,首先要解决什么,定位还是映射?这个问题的答案是机器人必须同时解决这两个问题。
本文介绍了一些最具代表性的开源视觉SLAM(vSLAM)方法的研究,从分析它们的特征开始,并提出了实验设计的标准选择,可以对比它们的优缺点。考虑了解决vSLAM的两种最具代表性的算法(RTAB-Map和ORB-SLAM2)。
实验使用为此目的设计的机器人系统进行了验证,该系统与ROS(机器人操作系统)完全兼容。
02
简介
机器人研究面临的最大挑战之一是在机器人系统中纳入高级自主性,将自主性理解为系统在没有人工千预的情况下执行其过程和操作的能力。
导航可能是与移动机器人自主概念最密切相关的问题。确切地说,将移动机器人定义为自主实体的一些任务是其环境和路径规划的安全导航。
在机器人技术中,术语位置、姿势和定位是指机器人相对于全球空间表示系统的坐标和方向。定位和映射是一些机器人对环境建模的能力,是机器人技术中的两个基本问题,并且密切相关。
当环境表示不可用时,必须由机器人自主构建。这是一个不平凡的问题;由于为了构建环境模型,有必要相对于尚不可用的模型建立精确的位置。同样,为了获得对位置的良好估计,需要地图。因此,当机器人面对未知环境时,它将不得不同时解决两个无法独立解决的问题:定位和映射。
本文讨论了基于vSLAM方法的室内环境同时定位和映射问题,在受控条件下,可以突出显示两种最具代表性的方法的差异方面,即RTAB-Map(基于外观的实时映射)和ORB-SLAM2(定向快和旋转BRIEF同时定位和映射2)。RTAB-Map和ORB-SLAM2都是VSLAM(可视化SLAM)当前技术水平的代表方法。但是前者生成密集地图,而后者生成稀疏地图。
同样,估计机器人轨迹和环境的三维结构。在作者的标准中,本文的贡献如下:
(1)VSLAM万法的整体视图,其中包含支持选择最方便的机器人应用程序开发方法的概念和程序元素。
(2)详细讨论了在趋向于重复性的受控条件下的简单实验设置,便于方法的比较。
(3)在真实环境中提供了对从每个近似获得的模型的完整解释,其中包含各种提供复杂特征的对象。
03
材料和方法
近年来,机器人研究和机器人系统的发展经历了显着增长,这主要是由于新的建模、估计、优化和控制方法的出现,以及计算、传感、机电一体化和通信的进步。这种情况有利于机器人在日常生活各个领域的新应用的出现以及需要多功能和强大的工具来设计、模拟和开发功能性机器人系统。
机器人现在被认为是复杂的分布式系统,包括各种各样的硬件和软件组件,这就是为什么这项研究在实验机器人系统的设计和实施中结合了最高程度的模块化,无论是在硬件和软件层面。尽管模块化设计带来了额外的集成、通信和互操作性问题,但这些问题可以通过使用分布式机器人系统的中间软件层或中间件来解决。
通常,最新一代的开源中间件有助于与计算机视觉、点云处理、3D几何和模拟器中广泛使用的库和包集成。它们极大地简化了具有严格安全性和鲁棒性要求的算法的开发、测试和调试,主要用于需要与人密切交互的应用中,例如用于货物交付的辅助和教育及物流机器人。
至于硬件,世界各地的几家公司 (Clear-path Robotics,Fetch Robotics,PAL机器人和HokuyoAutomatic)开发和提供广泛的机器人平台和传感,感知和驱动系统用于研究,学习和开发与不同中间件兼容的工业和商业应用程序。在这项工作中进行的实验中使用了以下四种工具:
3.1 机器人操作系统
中间件在学术和工业环境中被广泛接受,事实上,它已将自己定位为机器人应用程序开发的标准[12-14]ROS是用于机器人应用程序开发的开源中间件,为真实和模拟平台提供分布式编程环境。它还提供硬件抽象、低级控制、进程之间的消息专输和软件包管理[15]ROS的构思考虑了以下标准(表1):

3.2 凉亭
模拟器与ROS中间件兼容。使用此工具对实施的远程操作算法进行了初步测试该工具提供了一个3D模拟环境,需要具有良好图形处理能力的计算机,如GPU(图形处理单元).
3.3 海龟机器人
它是一个开放的硬件平台,用于研究、测试和开发机器人技术中的方法、算法和应用。它拥有必要的感知、控制和驱动系统,可以从开发支持 ROS的应用程序开始。进行了一些低成本的修改,以提高平台的处理和自主性。
3.4 处理和通信
计算机可用,这是我们称之为工作站的高性能之一,用于通过GUI(图形用户界面)进行系统监督和执行高计算成本过程。其他性能较低的设备,我们称之为Robot-PC,被整合到移动机器人中,以执行计算成本较低的过程,主要是与turtlebot2机器人的本体感觉,外部感受和效应器控制相关的过程。两个设备的连接都是通过路由器执行的。
所用硬件的特点如下(表2):

实验性移动机器人原型被命名为RobSLAM。它是从TurtleBot2个人机器人开发的,这是一个由ROS支持的开源平台该机器人集成了RGB-D外部传感器,托盘和支架,可以合并新设备,并且作为主要组件,iClebo Kobuki移动底座。它集成了本体感受传感、低级处理和运动系统。


中间托盘从原始平台上移除,以降低机器人的高度并保持其重心较低。提供四个直径为13毫米,高51毫米的铝制垫片,其长度由20毫米高的丙烯酸圆柱体延长。这些垫片用于将NUC迷你计算机(机器人PC)固定到上托盘的底部,为此提供了一个130x150毫米的矩形支撑底座及其固定螺钉。RobSLAM系统的硬件架构如图所示2.

由于其中一个 Kobuki 底座连接器上可用的 19.1VDC @2A电压不足为 NUC迷你电脑供电,因此设计了一个稳压电源系统,其中包括一个 12 V 电池 @5.5Ah、一个DC/DC转换器(用于将电压提升至19.0VDC)和一个固定结构以防止电池移位。
该系统固定在机器人的底部托盘上,以免其重心移位。该设计为机器人PC提供了方便的电源,并在电池充满电的条件下具有长达三个半小时的能量自主性,并有足够的时间推进拟议的实验并收集数据进行分析。数字3显示了移动机器人的最终外观。


3.5 选择VSLAM方法的标准
本节介绍了支持本研究的定性标准。考虑了每种方法使用的传感器和检测器/描述符的类型以及环境模型类型。最后,介绍了相关的特定方面,例如2D和3D建模支持,模型尺寸,地图重用,路径检测和全局优化。
桌子3介绍了一些最流行的vSLAM 算法,这些算法根据它们支持的视觉传感器类型和它们使用的检测器/描述符类型进行分类。MonoSLAM是第一个使用相机作为唯一传感器的实时vSLAM算法。
在这种方法中,通过估计相机状态、特征和相关不确定性来生成基于特征的稀疏概率图。PTAM(并行跟踪和映射)是一种单目算法,也用于增强现实。它通常不提供完整的地图,而是生成包含环境中单个物理对象的小地图。MonoSLAM和PTAM都是在过去十年中开发的,现在被认为有些过时了,这就是为什么它们被丢弃的原因。

下图总结了基于从图像序列中提取信息的方法和生成的地图类型的分类。稀疏地图会考虑小的像素子集,精确地考虑与检测到的要素及其邻域相关联的像素子集。相比之下,密集地图使用图像中的大部分或全部像素。
用于密集映射的两种最具代表性的vSLAM算法是DTAM(密集跟踪和映射)和RTAB-Map(基于外观的实时映射),而RTAB-Map被归类为间接方法,DTAM被认为是直接方法。在间接方法中,首先从图像中提取感兴趣的特征,然后从中定位相机并构建地图。另方面,在直接方法中,考虑像素的强度而不考虑特征提取的初步阶段。

04
实验
4.1 ORB-SLAM2手持实验
下图显示了ORB-SLAM2算法在其单目组件中的测试环境及其尺寸。它对应于图中办公空间的隔间中的办公桌5.相机在实验过程中采用的一些可能位置从起点到终点都标明。

实验是通过一只手握住相机并沿着接近图中橙色虚线指示的轨迹进行的6.这种类型的SLAM实验在文献中被称为手持重建127281在路径过程中,相机始终对准桌子,相对于地板的高度约为 130厘米。不同的对象被放置在桌子上,为算法提供纹理以及检测和跟踪不同特征的可能性。设计了一条往返路径,从图最左侧标记为起点的点开始6,前进到标记结束的点,最后返回起点。
下图显示了此实验的工作环境,其中包括桌面和放置在其上的不同对象,为算法提供纹理和各种功能。所考虑环境的SLAM实验的实验设置如图所示。在这种情况下,不需要移动平台,因为摄像机在场景中手动移动。


4.2 RTAB地图手持实验
相同的“L”形桌面环境被认为使用RTAB-Map进行手持映射实验。在这种特殊情况下,使用了 Kinect传感器,该传感器同时提供深度和RGB图像。下图显示了获得的3D地图之一,突出显示了密集的点云,使模型具有逼真的外观。姿势图如图所示以及链接到传感器的的初始和最终坐标。


图形节点存储相机测程法,以及来自深度图像、RGB图像和SURF 特征的视觉信息,这些信息量化为增量视觉字典 (视觉词),由闭环检测算法使用。该算法允许使用词袋方法在当前相机位置与已访问站点的先前位置之间建立匹配。
下图显示了通过RTAB-Map方法实现的视觉里程计和闭环检测


4.3 RobSLAM系统的分散映射实验
下图显示了使用RobSLAM系统进行的可视化SLAM映射实验的工作环境。图中外壳的隔间H和被考虑过。设计路径由三个部分组成,以绿色表示。第一部分为0.86m,相对于平行于隔间外边缘的线的方向为150°,第二部分在同一平行线上,相对于边缘的距离为1.02 m,长2.55m,最后是与第一部分对称且长度相同的第三部分。

05
实验结论
全球对服务、物流、个人协助和伴侣机器人的需求不断增长,!以及提高其自主性水平的需求,使SLAM成为机器人领域的关键参与者。此外,其方法已扩展到所有类型的车辆的自动驾驶: 陆运、空中和水上。
本文研究了构成视觉SLAM当前技术水平的一些算法。对两种最具代表性的开源算法进行系统审查和比较,以求解SLAM导致选择了ORB-SLAM2和RTAB-Map万法。
这两种算法都用于手持映射实验,其中传感器在要映射的环境中手动移动,这是办公室的“L”办公桌,为视觉里程计提供了方便的特征。
使用ORB-SLAM2算法进行了额外的实验,该算法基于RobSLAM系统中摄像机的横向排列及其在预定义轨迹上的远程操作
隔板和面板缺乏纹理导致视觉测程法的丧失,并在以前未观察到的环境部分检测到闭环。这两种情况都导致了算法执行失败,最终通过在分区上坚持一些不同方向的棋盘图案并在场景中添加标记丰富和纹理丰富的对象来解决。
这项工作的重点是研究未知环境或SLAM中的同时映射和定位问题,特别是可用于二维环境建模的最先进的开源算法。此外,还设计和构建了一个机器人系统(RobSLAM),用于对所考虑的算法进行实验验证。
该系统用途广泛,足以支持机器人应用的研究和开发,提供良好的能源自主性以及处理和外部传感的扩展能力。RobSLAM利用了ROS提供的硬件和软件抽象功能,ROS是机器人社区中增长最快,最普遍的中间件之一。
论文原文:基于视觉SLAM方法的移动机器人三维定位与映射分析 (hindawi.com)
更多精彩内容请关注公众号:BFT机器人
本文为原创文章,版权归BFT机器人所有,如需转载请与我们联系。若您对该文章内容有任何疑问,请与我们联系,将及时回应。