ORB-SLAM3 Initializer完全解读
来源:公众号3D视觉工坊|系投稿
作者:Liam
「3D视觉工坊」技术交流群已经成立,目前大约有12000人,方向主要涉及3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等。工坊致力于干货输出,不做搬运工,为计算机视觉领域贡献自己的力量!欢迎大家一起交流成长~
添加小助手微信:CV_LAB,备注学校/公司+姓名+研究方向即可加入工坊一起学习进步。

构造函数
Initializer::Initializer(const Frame &ReferenceFrame, float sigma, int iterations)
参数: 参考帧(第一帧), 误差, 迭代次数
操作:读取参考帧的相机模型, 内参, 去畸变的特征点等传入参数
初始化:并行的计算前后两帧的本质矩阵和基础矩阵,选出来评分高的恢复旋转和平移

(==当前帧指向参考帧==), 三角化后的点, 特征是否被三角化过
返回值:bool->初始化是否成功的标志
操作:
vMatches12中的匹配关系以<==第一帧特征索引,第二帧特征索引==>存储在mvMatches12中, 同时mvbMatched1[i]设置为true表示第一帧中该索引的特征点匹配成功
从匹配中不重复的随机选择mMaxIterations组点,每组8个
开两个线程同时计算单应和基本矩阵
计算得分
选择得分高的矩阵来恢复两帧位姿
寻找最优单应矩阵
void Initializer::FindHomography(vector&vbMatchesInliers, float &score, cv::Mat &H21)
参数: 匹配的Inliers, 最后的得分, 单应矩阵
操作:
归一化
利用选择的mMaxIterations组匹配点用八点法计算单应矩阵(ComputeH21(vPn1i,vPn2i))
恢复初始尺度(归一化前的)
保留最高得分的单应矩阵及对应的匹配内点
需要最优基础矩阵
void Initializer::FindFundamental(vector&vbMatchesInliers, float &score, cv::Mat &F21)
参数: 匹配的Inliers, 最后的得分, 基础矩阵
操作:
归一化
利用选择的mMaxIterations组匹配点用八点法计算基础矩阵(ComputeF21(vPn1i,vPn2i))
恢复初始尺度(归一化前的)
保留最高得分的基础矩阵及对应的匹配内点


















本文仅做学术分享,如有侵权,请联系删文。