如何更高效的学习SLAM?
SLAM正确学习姿势
后台和粉丝群里经常收到大家的问题:
机械/自动化/数学等非计算机专业能否转SLAM?
导师不懂,但要我做SLAM方向,怎么入门?
编程基础差,数学不好,能否学习SLAM?
看完十四讲,下面怎么学习?
需要学哪些开源框架?怎么学习呢?
编译遇到很多问题,怎么解决?
只有自己一个人学SLAM,没人讨论好痛苦,怎么办?
想要和小伙伴组队系统的学习,有资源吗?
这里可以肯定的告诉大家,这些问题在我们「从零开始学习SLAM」知识星球里都有,我们是全国最棒的SLAM/三维视觉交流社区,包括小白入门图文/视频教程、学习过程疑难点解答、每日最新论文/开源代码/数据集分享、在线学习小组、笔试面试题、实习/校招/社招岗位推荐、星主直播交流等。

限时3天优惠券,名额有限先到先得。3天内无条件退款

笔者之前专门做直播讲解了SLAM的简介,包括
SLAM是什么?
SLAM有什么用?
SLAM技术框架
学习SLAM如何入门?
SLAM发展趋势
。。。

扫描二维码看直播回放

相信很多学习SLAM的小伙伴通常会经历以下阶段:
看SLAM相关的论文,发现很多公式、理论看不懂,好不容易努力看了个大概,也不知道具体怎么用。
于是去跑开源代码,安装调试出错,网上也找不到解决方案。不知道是环境配置问题还是代码有bug。
好不容易跑通了代码。在实际测试时发现问题很多,远不如论文里写的那么牛逼,不知道这个算法的适用场景是什么。抓不住重点瞎折腾,浪费了时间。
没办法,硬着头皮去看代码,代码量又非常大,看起来非常痛苦,急需大牛帮忙梳理思路。
摸索了很久,终于发现有几个点(藏的很深)好像比较影响算法性能,还发现了一些trick的东西。自己也不会改进,感觉被骗了,纠结要不要换个开源试试。
反反复复好不容易找到适合自己的开源方案,发现上面过程要再来一遍,想要理清代码,搞懂原理也要花费大量精力,更别提改进代码了。
哭晕在SLAM的汪洋大海里。。。

学习SLAM中经历上述阶段是令人痛苦的,关键是浪费了很多宝贵的时间,即使是SLAM大神,我估计或多或少都经历过上述阶段。如果一开始有人能指点一下,肯定能绕开不少坑吧!
SLAM知识星球里有啥?
「从零开始学习SLAM」知识星球是全国最大的SLAM/三维视觉学习社区,星球里包括小白入门图文/视频教程、学习过程疑难点解答、每日最新论文/开源代码/数据集分享、在线学习小组、笔试面试题、实习/校招/社招岗位推荐、星主直播交流等从入门到精通,从学生到职场的所有内容。见下图。很多小伙伴加入我们的知识星球后,感慨:“终于找到组织了!”
SLAM知识星球内容有哪些?

SLAM星球内部组织了多次学习小组,并陆续续推出以下独家系列视频教程:
《从零开始系统学习代码调试:磨刀不误砍柴工》
《两个月从零开始搞懂G2O库》
《两个月从零开始学会Ceres库》
《两个月从零开始系统学习OpenCV》
《两个月从零开始系统学习PCL》
后续还会更多的源码解析,重点突破等学习计划~欢迎加入!
以下是最近一段时间星球里的部分优质内容整理,星球成员直接复制链接到浏览器即可查看。
/ 向下滑动查看 /
传感器使用及标定
T265 D435 相机标定
https://t.zsxq.com/FYz3zjm
双目标定问题
https://t.zsxq.com/myRby7e
相机选择方法
https://t.zsxq.com/7QjmIQR
ros修改相机分辨率方法
https://t.zsxq.com/iyrnmeQ
相机在线光度标定
https://t.zsxq.com/qZRFYf6
深度相机对比
https://t.zsxq.com/UBQfEey
imu位姿积分及误差标定代码
https://t.zsxq.com/zzbeyZZ
Imu各种噪声参数详解
https://t.zsxq.com/6ImAeMR
标定单目-激光雷达外参标定代码
https://t.zsxq.com/7iEIMjM
鱼眼MEI模型详解
https://t.zsxq.com/EmQnUFE
点线面特征
如何计算图像特征点匹配中匹配点的个数和错误匹配的个数?
https://t.zsxq.com/NBMj2vF
适合长直走廊场景点线融合slam
https://t.zsxq.com/NN7iiuR
初始化地图点分布不均匀或者太少影响及IMU的累计误差对恢复的尺度的影响分析 https://t.zsxq.com/U7i6iuf
点云特征提取的相关算法实验
https://t.zsxq.com/feeeQZz
小车平面运动约束相关论文推荐
https://t.zsxq.com/Iaaa2Zf
浙大章国峰组新开源!基于多平面先验的高效VIO
https://t.zsxq.com/UVbMVR7
图像匹配算法推荐https://t.zsxq.com/fma6iEA
深度学习的特征提取匹配方法
https://t.zsxq.com/bIaMJmu
ORB-SLAM2/3的改进方案及代码
快速剔除特征匹配中动态物体
https://t.zsxq.com/JyfMzfY
单目模式生成稠密地图论文
https://t.zsxq.com/MvvVnUZ
使用深度相机得到较稠密的大型场景点云地图方法
https://t.zsxq.com/yZVjIYV
实现室内无人小车定位建图的教程、方案
https://t.zsxq.com/BQFeQz3
采用点特征线特征结合的开源方案
https://t.zsxq.com/BEIaUNJ
结合图像处理去模糊https://t.zsxq.com/Iq7i6yr
ORB-SLAM2课程群里问答汇总https://t.zsxq.com/ujiayvb
不同系统安装ORB-SLAM2的详细方法
https://t.zsxq.com/MFEmuvZ
orbslam2代替amcl做视觉导航的方案
https://t.zsxq.com/2fUJ6ei
地图构建类中加入octomap地图方法
https://t.zsxq.com/Z3J2fmy
ORB-SLAM2中的相机配置文件参数说明
https://t.zsxq.com/vZzzzBA
orbslam3注释代码 https://t.zsxq.com/Zzj6mmA
基于orbslam2和yolo的语义slam论文
https://t.zsxq.com/33zVFIM
orbslam2特征提取和匹配加速方案https://t.zsxq.com/vVFmuF6
RGBD ORBSLAM2 with Octomap代码
https://t.zsxq.com/mAAUJY7
Orb-slam2/3相关改进代码汇总
https://t.zsxq.com/6IMbMzJ
orb-slam2改成直接法https://t.zsxq.com/bujUFqf
RGB-D模式建立大环境三维点云图及语义方法
https://t.zsxq.com/NRneufu
orbslam2里处理外点方法 https://t.zsxq.com/3FYJaQn
ORB-SLAM在不同平台的移植https://t.zsxq.com/YfaEImM
ORB-SLAM2/3地图加载和存储代码 https://t.zsxq.com/2bmeyzj
TUM做的ORB-SLAM2的拓展版本,地图存储及重定位
https://t.zsxq.com/yrRJe6e
激光SLAM
激光雷达和IMU标定的文章https://t.zsxq.com/NR3nmYZ
激光slam代码资料汇总https://t.zsxq.com/EiiIiQ3
激光雷达imu硬同步https://t.zsxq.com/vvjMRRZ
BA用在激光slam中应用方案 https://t.zsxq.com/yJYV7eE
3D激光slam开源算法综合性能高的推荐方案 https://t.zsxq.com/FeurNZn
激光slam开源资料https://t.zsxq.com/3NFIAYf
无人车定位 如激光定位或者多传感器融合定位方面的资料和方法
https://t.zsxq.com/YF6qrb2
VIO及多传感器融合
多传感器融合方面的综述或者论文https://t.zsxq.com/Jia2VZ7
RGB-D和IMU松耦合的定位方案https://t.zsxq.com/meyFmau
RGB-D 和IMU紧融合的开源方案https://t.zsxq.com/MrRJQnI
EKF多传感器融合教程及公开课 https://t.zsxq.com/bynYbyn
VIO或者多传感器融合的论文https://t.zsxq.com/u3rjmqj
开源的松耦合的vio系统https://t.zsxq.com/EqvjaAy
二维(单线)激光雷达和RGBD相机融合的开源SLAM建图方案
https://t.zsxq.com/7Q3Rnmi
激光雷达和相机的融合方案 https://t.zsxq.com/ufEUN3N
机器人避障及路径规划
基于视觉的移动机器人避障项目推荐https://t.zsxq.com/NfyjYzN
实现机器人在离线模式下腔体内的避障https://t.zsxq.com/vnaQVJ6
移动机器人主动环境探索,路径规划相关的SLAM论文及代码汇总
https://t.zsxq.com/i6aeuRr
移动机器人平台资料https://t.zsxq.com/vf2R7E6
深度相机做机器人导航的开源案例https://t.zsxq.com/3ZzZbY7
动态路径规划和避障项目及论文 https://t.zsxq.com/7miyNjY
不同场景下SLAM开源方案
动态场景下视觉slam开源框架汇总:https://t.zsxq.com/fa6Qz3B
基于支持向量机svm的视觉slam开源代码https://t.zsxq.com/nIUJqZF
slam实验室大全,以及83种slam开源方案https://t.zsxq.com/EEImUbm
svo在平视相机的改进的论文或者代码https://t.zsxq.com/MrFm6A6
小场景、弱纹理、光照差的巷道SLAM方案https://t.zsxq.com/iURVNnE
自主代客泊车视觉定位方案探索https://t.zsxq.com/vvnq7YB
动态背景下的视觉slam方案推荐 https://t.zsxq.com/n6AEEQV
三维重建及地图
在线构建稠密地图或八叉树地图的开源推荐
https://t.zsxq.com/FeIIYz3
点云表面重建泊松重建https://t.zsxq.com/3FiAQbM
双目数据集实现三维重建https://t.zsxq.com/ZFIeeu3
三维重建各方面的课程论文资料 https://t.zsxq.com/i6uNrfq
较高精度的室内三维建模https://t.zsxq.com/mmIIYNR
RGB-D稠密重建方案汇总 https://t.zsxq.com/3ZFyVf2
将直接稀疏里程计转为稠密三维重建https://t.zsxq.com/iEufeM7
RGBD 3D点云重建论文及开源汇总 https://t.zsxq.com/ZJEyNz7
学习教程
学习G2O有比较好的资料推荐https://t.zsxq.com/3fEYzbq
视觉惯性里程计的相关资料汇总https://t.zsxq.com/QFaqj6M
光流的资料汇总 https://t.zsxq.com/RfQNrvZ
视觉SLAM十四讲 第13讲的代码解读https://t.zsxq.com/zBurJaU
回环检测关于深度学习的文献以及相对应的源代码
https://t.zsxq.com/Qrr3JUj
视觉SLAM/里程计资源汇总 https://t.zsxq.com/aYB6Yji
激光点云目标检测、目标跟踪、动态语义SLAM
https://t.zsxq.com/j2b2bAu
CMake 系列视频讲解https://t.zsxq.com/EaUNJiU
理解李群李代数https://t.zsxq.com/N7UJYfE
EPnP的推导文档https://t.zsxq.com/uzVfEq3
如何快速查找研究领域论文、代码、资料的方法
https://t.zsxq.com/eQzR76M
无人驾驶技术电子书 https://t.zsxq.com/2zfyFmI
PCL视频教程 https://t.zsxq.com/AMVnuNf
深度学习相关的slam论文https://t.zsxq.com/2bqn6IQ
RGB-D SLAM相关的主要论文
https://t.zsxq.com/3JI2JuZ https://t.zsxq.com/3JI2JuZ
数据集及效果评估方法
EVO工具评估TUM、KITTI、EuRoC 数据集方法
https://t.zsxq.com/JY7yJ2n
实际单目摄像头怎么评判误差及尺度 https://t.zsxq.com/YN3fIub
单目没有尺度怎么衡量误差?https://t.zsxq.com/EAUFuRj
特征点匹配的准确率该怎么评判https://t.zsxq.com/rJa6eea
回环检测标准及评估方法汇总 https://t.zsxq.com/vJm2b2v
单目没有尺度如何评估准确率https://t.zsxq.com/aaeia6U
怎么评价slam建图效果?https://t.zsxq.com/jim6qVf
特征点匹配的准确度公开数据集和测试方法
https://t.zsxq.com/3NBI2NN
在自定义场景做实验时,评价定位精度误差等指标,评价方法工具推荐
https://t.zsxq.com/IaQvNna
SLAM最全数据集汇总 https://t.zsxq.com/b6URfU7
SFM有什么通用的定量评价指标https://t.zsxq.com/RrFq7qv
如何能评价建图的精度https://t.zsxq.com/YFujYv7
画出真实轨迹与估计轨迹误差图https://t.zsxq.com/BAaQNFm
户外的回环检测数据集https://t.zsxq.com/YJEMRbq
Kitti数据集的真值轨迹如何获取 https://t.zsxq.com/m2juj6m
无人驾驶的数据集汇总https://t.zsxq.com/qBIiYzV
......
在星球里我还经常收到很多小伙伴的提问,比如:机械专业转行学SLAM难吗?C++不会能学SLAM吗?SLAM十四讲需要学到什么程度?学完十四讲后下一步
怎么办?小白入门SLAM需要多久?传统SLAM好发论文吗?导师不带一个人学怎么办?这个报错啥意思,怎么解决?有没有关于XXX的开源代码?......
说实话,这些迷茫我都经历过,所以深有体会。这些问题大部分来自「从零开始学习SLAM」知识星球,我在星球里也做了回复。
我们的SLAM知识星球学习交流社区,包含:
图文教程:从零开始学习SLAM图文教程、练习题及答案解析
视频教程:环境/第三方库配置使用、作业讲解、疑难/常见错误讲解、VO代码讲解、RGB-D SLAM教程、CMake系列教程、代码调试系列教程、G2O库系列教程、Ceres库系列教程
面试经验:SLAM常见面试题目及答案解析、SLAM笔试题目及答案、面试经验分享
参考资料:电子书、实用手册、每天SLAM最新论文、开源代码、开源数据集
工作机会:第一时间发布三维视觉、SLAM相关内推实习/校招/社招岗位、项目合作、硕博招生等
答疑解惑:包括作业解答、知识盲点梳理、科研问题答疑、调研调试方法、硕博方向选择等
交流机会:线上直播、线下聚会交流
优秀同学:星球内嘉宾和学员都非常优秀上进,早期加入的成员很多已经进入业界知名公司、高校研究机构开启了精彩的人生。主要来自:
公司:大疆、旷世、商汤、虹软、百度、腾讯、阿里、华为、四维图新、中科创达、英特尔、momenta、上汽、小鹏汽车、驭势、海康威视、达闼、极智嘉、肇观、华捷艾米、优必选、银星智能、普渡、高仙、视辰、indemind、中科慧眼等公司的视觉SLAM/激光SLAM/三维重建/多传感器融合/点云处理算法工程师、技术leader
留学生:慕尼黑理工、KIT、柏林工大、东京大学、筑波大学、瑞典皇家理工、苏黎世大学、多伦多大学、卡迪夫大学、新南威尔士大学、阿德莱德大学、约翰霍普金斯大学、谢菲尔德大学、国立台湾大学、香港理工、香港中文等境外留学生
国内硕博:清华、北航、北邮、北理工、中科院、上交、复旦、华东理工、上大、浙大、杭电、南大、南航、南邮、矿大、中科大、哈工大、西交、西电、武大、华科、成电、华南理工、广东工大、国防科大、东大、深大等国内优秀硕博士
不仅如此,计算机视觉life推出了系列精品课程,所有星球成员都能获得内部课程优惠券,详情见星球说明。今后我们将会推出更多机器人SLAM、自动驾驶、AR相关优质课程,星球成员都会第一时间享受内部优惠价。
星球里部分图文/视频教程见下:

星球里部分内容汇总见下:

什么是SLAM?
SLAM是 Simultaneous Localization And Mapping的 缩写,一般翻译为:同时定位与建图、同时定位与地图构建。
SLAM的典型过程是这样的:当某种移动设备(如机器人/无人机、手机、汽车等)从一个未知环境里的未知地点出发,在运动过程中通过传感器(如激光雷达、摄像头等)观测定位自身在三维空间中的位置和姿态,再根据自身位置进行增量式的三维地图构建,从而达到同时定位和地图构建的目的。

传统的视觉算法主要是对针对二维图像的处理,借助深度学习在分类识别方面取得了超越人眼精度的巨大成就,就像人眼是通过双眼立体视觉来感知三维世界一样,智能移动终端(比如智能手机、无人汽车、无人机、智能机器人)需要能够像人类一样利用SLAM算法来快速精确的感知、理解三维空间。
最近几年,以双目相机、结构光/TOF相机、激光雷达为代表的三维传感器硬件迭代更新迅猛,国内外已经形成了成熟的上下游产业链。三维视觉传感器也逐渐走入普通人的生活,在智能手机、智能眼镜等设备上应用越来越多,以手机为例,苹果、华为、小米、OPPO、VIVO等手机大厂都在积极推动结构光/TOF相机在手机上的普及。

SLAM技术为核心的三维视觉在学术界也是一个热门方向,从最近几年计算机视觉相关的顶级会议CVPR, ICCV, ECCV,IROS, ICRA 录用论文来看,视觉定位、三维点云识别分割、单目深度估计、无人驾驶高精度导航、语义SLAM等相关论文占比越来越高。
因此SLAM技术在最近几年发展迅猛,广泛应用于增强现实感知、自动驾驶高精度定位、机器人自主导航、无人机智能飞行等前沿热门领域。
学习SLAM需要学什么?
SLAM是涵盖图像处理、多视角视觉几何、机器人学等综合性非常强的交叉学科。
学习SLAM涉及线性代数矩阵运算、李群李代数求导、三维空间刚体变换、相机成像模型、特征提取匹配、多视角几何、非线性优化、回环检测、集束调整、三维重建等专业知识。SLAM是强实践学科,需要具有一定的C++编程能力,掌握Linux操作系统、Eigen, Sophus, OpenCV, Dbow, G2O, ceres等第三方库,能够快速定位问题,解决bug。
SLAM关联知识(点开查看大图)

这对于初学者来说无疑具有较高的门槛,也需要花费不少的时间来摸索重点,打好基础。这个过程可能比较痛苦,但是熬过了这个过程,你就拥有了自己独有的核心竞争力,不用担心轻易被取代,未来会有非常强的竞争力。
但是目前关于SLAM学习的资料不多,而且参差不齐,初学者推荐高翔的《视觉SLAM十四讲》,该书也是本教程的必备参考书籍
计算机视觉life总结了SLAM学习资源树(点击看大图)

但很多小伙伴在学习期间仍然会遇到很多困难:公式看不懂,代码不会写,不知道怎么入手,没有人指导或者一起讨论,很容易不得要领,进度极慢,走弯路等,不仅浪费了时间和精力,甚至因此放弃了该方向的研究,以后可能再也没有机会进入这个领域了,错过了时代的风口。
目前SLAM领域优秀企业列表(点开查看大图)

优惠有效期3天,扫码加入,不满意3天内无条件退款!
限时3天优惠券,名额有限先到先得。3天内无条件退款

SLAM知识星球有啥特点?
1、技术介绍全面。学习过程从基础的知识开始循序渐进,内容涵盖图文教程、视频教程、技术交流分享、工作机会。



2、专门设计的练习题,重视实践。星主根据不同知识点设计一些实用性的练习题(推导、编程等),所有提交作业都会批改。光看不做假把式,适当的练习能够加深读者的理解,把知识消化吸收为自己所用。


3、高质量的交流学习社区。星球成员来自国内外硕博士及相关公司研发人员。练习题,有专属内部实名微信群 帮助日常互助答疑解惑。所有成员都可以进行发布问题、分享知识、上传资源、点赞、留言、赞赏、收藏等操作。星球里提问均免费,星主会及时答疑解惑 。




4、精选SLAM常见面试题,定期发布在星球里,引导大家讨论,并提供参考答案,帮助找工作的同学从容面试。目前已经有几十条SLAM常见面试题目和详细解答。
见《干货总结 | SLAM 面试常见问题及参考解答》。星球内也会经常发布SLAM相关的实习生/校园/社会招聘。



如何加入知识星球?
知识星球需付费加入,价格随人数增加逐渐上涨,因此越早加入越优惠。有效期一年(从加入时间开始往后一年有效,到期仍可查看之前所有内容,查看新内容需续费),平时忙也没关系,有空可以反复看。
时间不等人,万事早为先。学习切忌单打独斗,一个良好的学习圈子能够帮助你快速入门,交流讨论才能少走弯路,快速进步!加入SLAM学习星球,把握时代的风口,和国内外优秀的SLAM研究者一起交流进步
限时3天优惠券,名额有限先到先得。3天内无条件退款

加入之后,邀请其他人加入后双方都可以获得一定比例的返现。快快分享给爱学习的小伙伴吧~