论文地址: https://arxiv.org/pdf/2008.09870
代码: 即将开源(https://github.com/cnqiangfu/FastORB-SLAM)
来源: 湖南大学机器人视觉感知与控制技术国家工程实验室
论文名称:FastORB-SLAM: a Fast ORB-SLAM Method with Coarse-to-Fine Descriptor Independent Keypoint Matching
原文作者:Qiang Fu
内容提要
非直接法的视觉SLAM方法由于其对不同环境的鲁棒性而越来越受欢迎。ORB-SLAM2是该领域的一个基准方法,但是,ORB-SLAM2中描述符的计算非常耗时,同时除非被选择为关键帧,否则描述符不能被重用。为了克服这些问题,我们提出了FastORB-SLAM,它是轻量级和高效的,因为它是通过跟踪相邻帧的关键点,而不需要计算描述符。为此,本文提出了一种基于稀疏光流的关键点匹配方法,通过两步实现从粗到细的描述子独立关键点匹配。在第一阶段,我们先用均匀加速度运动模型对关键点的初始位置进行预测,然后用基于金字塔的稀疏光流跟踪方法稳健地建立初始关键点的对应关系。在第二阶段,我们利用运动平滑性和对极约束来细化对应关系。特别地,我们的方法只计算关键帧的描述符。我们用TUM和ICL-NUIM数据集上的RGBD数据集测试FastORBSLAM,并且在准确性和效率方面与当前已有的9种基于RGBD的 SLAM方法进行比较。试验结果表明,我们的方法在精确度上达到了最先进的水平,而且速度大约是ORB-SLAM2的两倍。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。