版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
在点云PCL公众号相机测评活动的支持下,首先拿到了小觅相机,所以这篇文章将对小觅MYNTEYE-S1030-IR在ORB-SLAM2和RTAB-Map两种SLAM方案下的效果进行测评,为了增强对比效果会和我自制双目摄像头进行对比。同时这还是一篇干货满满的技术文章,我会写下详细的实验环境搭建步骤,相信你会学到很多东西!下面开始快乐的学习旅程吧!
OpenSLAM http://openslam.org/ FALKOLib(2D LIDAR) GMapping,GridSLAM(To learn grid maps from laser range data) tinySLAM(Laser-SLAM algorithm in 200 lines of C code) Unscented FastSLAM(Laser data, Matlab) EKFmonocularSLAM(Matlab) Linear SLAM(Matlab or Visual Studio) ROBOMAP Studio 2011(Visual Studio, EA optimizers) People2D(Realtime people detection in 2D range data)
文章:Persistent Map Saving for Visual Localization for Autonomous Vehicles: An ORB-SLAM 2 Extension
同步定位和制图(SLAM)一直被认为机器人定位导航以及无人驾驶的核心技术,而利用摄像头作为传感器的视觉SLAM在近几十年也得到了广泛的研究,在这期间涌现了大量优秀的SLAM方法,为后人对SLAM技术的研究打下了坚实的基础。
Visual and Visual-Inertial SLAM: State of the Art, Classification,and Experimental Benchmarking
之前做的深度学习闭环检测 这方面,最近想了解下语义这方面,于是总结了一些开源的语义SLAM代码共后面研究:
博主推荐,作者总结了SLAM中常见的算法,由理论到代码实践,十分有用。欢迎大家关注作者的知乎专栏:https://www.zhihu.com/column/slamTech,
文章:BundledSLAM: An Accurate Visual SLAM System Using Multiple Cameras
文章:FastORB-SLAM: Fast ORB-SLAM method with Coarse-to-Fine Descriptor Independent Keypoint Matching
SLAM是Simultaneous localization and mapping缩写,意为“同步定位与建图”.
传统的单目视觉SLAM(VSLAM)可以分为三类:使用特征的方法、基于图像本身的方法和混合模型。
虽然直接法SLAM在无纹理环境更加鲁棒,但是由于灰度图像的凸性特征导致光度误差的凸性仅在一个小区域内保持的问题,所以传统的直接法视觉SLAM在当跟踪点有较大位移时,可能陷入次优局部极小解,具体问题描述如下图,左边分别是对应区域的灰度图和语义概率图,右图相应的三维可视化,灰度图像保留了对象的细节,而道路的概率主要在道路边界上进行生成,对于语义对象边界上的点,语义概率的凸性在比灰度图像更大的区域中成立。
原文:VP-SLAM: A Monocular Real-time Visual SLAM with Points, Lines and Vanishing Points
https://github.com/electech6/ORB_SLAM2_detailed_comments
文章:OA-SLAM: Leveraging Objects for Camera Relocalization in Visual SLAM
首先回顾一下历史:ORB-SLAM首次在2015年被提出,它的改进版ORB-SLAM2在2017年被提出,同年提出了ORB-SLAM-VI,时隔3年,ORB-SLAM3横空出世,朋友圈、学术群里到处都在热议这个挂在Arxiv才不到3天的论文。好奇心的驱使下,本人偷瞄了一下论文,就在这里总结一下吧。
论文地址:https://arxiv.org/pdf/1902.11046v3.pdf
激光雷达:通过测量激光信号的时间差、相位差确定距离,通过水平旋转扫描或相控扫描测角度,并根据这两个数据建立二维的极坐标系;再通过获取不同俯仰角度的信号获得第三维的高度信息。
👆点击“博文视点Broadview”,获取更多书讯 计算机视觉是人工智能发展最快的三大领域之一。 自OpenAI的ChatGPT模型发布以来,该模型可以与计算机视觉模型配合,完成图像分类、标注和描述任务。 二者结合在一起,可以提供更全面的人工智能解决方案。 而作为基于几何方法的计算机视觉核心技术,视觉SLAM广泛应用于元宇宙、自主移动机器人、自动驾驶车辆、增强现实、智能穿戴设备和智能无人机等领域。 近几年,业界诞生了大量优秀的视觉SLAM算法框架,其中以西班牙的萨拉戈萨大学机器人感知与实时研究
Persistent Map Saving for Visual Localization for Autonomous Vehicles : An ORB-SLAM 2 Extension
同步定位与建图在移动机器人自主导航中起着重要的作用.大多数视觉SLAM方法使用关键点进行跟踪,但由于光线条件不确定和视点频繁变化,其性能受到任务中不稳定地标的影响.对于低纹理环境中的视觉SLAM,尤其是在室内建筑中,这种情况变得更糟,在室内建筑中,辅助人工标记可以用于在更大范围的环境下提高鲁棒性检测.受这一思想的启发,本文开发了一个集成关键点和人工标记的可视化SLAM系统.构建了一个图形优化问题,通过考虑关键点的重投影误差和标记的影响来优化轨迹.在SPM数据集上的实验结果表明,与最先进的ORB-SLAM2相比,该图优化算法具有更高的精度.
论文名称:Keeping Less is More: Point Sparsification for Visual SLAM
代码: 即将开源(https://github.com/cnqiangfu/FastORB-SLAM)
想要理解ORB-SLAM3的地图管理,仅看ORB-SLAM3的论文[3]是不够的,因为很多细节出现在之前的ORB-SLAM1/2[1][2],以及ORB-Atlas[4]这几篇论文中。从头到尾搞清楚这些论文中采用的地图管理方法,就能理解ORB-SLAM3中的内容。本文介绍这几篇论文中涉及地图的部分,并不介绍特征跟踪、关键帧创建等内容。作者能力有限,在整理时难免出现疏漏,望读者以原论文为准。
在本文中,我们提出了动态目标跟踪(DOT),一个添加到现有SLAM系统的前端,可以显著提高它们在高度动态环境中的鲁棒性和准确性.点结合实例分割和多视图几何生成动态对象的遮罩,以允许基于刚性场景模型的SLAM系统在其优化中避免这种图像区域.
经常有粉丝问视觉/激光/SLAM、三维重建等方向的学习路线,这里我再总结给大家,如下所示:
标题:ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM
👆点击“博文视点Broadview”,获取更多书讯 人工智能技术按照信息来源主要分为计算机视觉(视觉)、自然语言处理(文本)、语音识别(语音)三大方向。 其中,计算机视觉是需求最大、发展最快、应用最广泛的领域。 计算机视觉算法通常分为基于学习的方法和基于几何的方法。 前者主要指利用深度学习来实现图像识别、物体检测、物体分割、视频理解、图像生成等;后者主要指利用多视图立体几何来实现空间定位、三维重建、测距测绘等。 其中,基于几何方法的计算机视觉核心技术之一是同步定位与建图(Simultaneous Lo
许多视觉同步定位和映射(VSLAM)系统需要在环境中假设静态特征。然而,移动物体会极大地损害VSLAM系统的性能,因为VSLAM系统是基于静态环境假设的。为应对这一挑战性课题,本文提出了一种基于ORB-SLAM2的动态环境实时鲁棒VSLAM系统。为了减少动态内容的影响,我们将基于深度学习的目标检测方法引入视觉里程计中,然后加入动态目标概率模型,以提高目标检测深度神经网络的效率,提高系统的实时性能。在TUM和KITTI基准数据集上以及在真实环境中进行的实验结果表明,本文提出的方法可显著减少跟踪误差或漂移,增强VSLAM系统在动态场景中的鲁棒性、准确性和稳定性。
Jiawei Mo1、Md Jahidul Islam2 和 Junaed Sattar3*
学 SLAM 的同学,应该没有不知道 ORB-SLAM的,截止2020年7月24日,ORB-SLAM系列的谷歌引用量已达到4770 = 3053+1717!实属相当恐怖的数据
最近公众号组织了ORB-SLAM2理论与代码的学习会,正常进行中,有兴趣的可以积极参与第三期:一起来学SLAM
本文介绍了ORB-SLAM3,这是第一个能够使用单眼、双目和RGB-D相机,使用针孔和鱼眼镜头模型执行视觉、视觉惯性和多地图SLAM的系统.
前段时间,主要对ORB-SLAM2中字典的训练与使用进行了些研究,关于字典的训练之前也写过一篇文章:VSLAM|回环检测之词袋字典如何生成?,简单讲解了如何使用我们自己的数据集进行训练字典,ORB-SLAM作者提供的是字典层数为6层,当然我们也可以训练更低层数的字典,以减小程序所占内存。
👆点击“博文视点Broadview”,获取更多书讯 今年春节前,波士顿动力机器人又在朋友圈炸场了! 当工人需要工具包时,机器人迅速定位到工具包,携带工具包自主搭桥、上楼梯,动作敏捷高效。然后,其将工具包扔给工人,完成任务后体操式前空翻落地,一气呵成! 这不是波士顿动力人形机器人Atlas的第一次秀了,一年多前,Atlas展示了在一系列倾斜木板还有木箱垒成的阶梯的复杂场景中跑酷,如履平地,表现甚至超越人类。 波士顿动力机器人为什么这么智能?它是如何像人一样可以在复杂的环境下自主运动的呢? 其背后的核
近期在学习SLAM中的回环检测模块,着重于对于字典的训练方式进行了研究,简单整理了下学习笔记如下。
在智能制造、AR、机器人、室内导航等领域,三维重建都有很广泛的应用前景。随着消费级RGB-D相机的普及,三维重建的应用场景也得到了进一步的扩展。奥比中光自主研发的深度相机Astra Pro的成本相对较低,同时也可以方便、快捷地对物体进行3D成像,并且具有精度高的优点。针对三维重建相关技术进行研究和加以应用,必将极大程度地促进计算机视觉等领域的发展,并进一步深度影响工业生产活动以及人们的生活方式。
原文链接:VSLAM系列原创09讲 | 如何在线生成BoW词袋向量?原理+代码详解
ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM
x3很牛,TT也牛,但是我不牛,我得让他牛,所以我决定搞个SLAM使用。TT有一个单目的相机,还有一个IMU,以及开放的接口。所以有这个潜力,其次也能学一手ROS2.事实上是我太年轻了,后面再说。
匀速模型预测当前相机的位置,搜索上一帧图像中的特征点在地图中对应的点云与当前帧图像匹配进行当前帧相机位姿的优化;
作者提出了一种语义平面 SLAM 系统,该系统使用来自实例平面分割网络的线索来改进位姿估计和映射。虽然主流方法是使用 RGB-D 传感器,但在这样的系统中使用单目相机仍然面临着鲁棒的数据关联和精确的几何模型拟合等诸多挑战。在大多数现有工作中,几何模型估计问题,例如单应性估计和分段平面重建(piece-wise planar reconstruction,PPR),通常由标准(贪婪)RANSAC解决。然而,在缺乏场景信息(即尺度)的情况下,设置RANSAC的阈值是很非常困难的。在这项工作中,作者认为可以通过最小化涉及空间相干性的能量函数来解决两个提到的几何模型(单应性/3D平面),即图割优化,这也解决了经过训练的CNN的输出是不准确的问题。此外,作者根据实验提出了一种自适应参数设置策略,并完成了对各种开源数据集的综合评估。
将激光雷达与基于相机的同步定位和建图(SLAM)相结合是提高整体精度的有效方法,尤其是在大规模室外场景下.低成本激光雷达(如Livox激光雷达)的最新发展使我们能够以更低的预算和更高的性能探索这种SLAM系统.在本文中,我们通过探索Livox激光雷达的独特特征,将Livox激光雷达应用到视觉SLAM(ORBSLAM2)中,提出了CamVox.基于Livox激光雷达的非重复特性,我们提出了一种适用于非受控场景的激光雷达-相机自动标定方法.更长的深度探测范围也有利于更有效的建图.我们在同一个数据集上评估了CamVox与VINS-mono和Loam的比较,以展示其性能.
本文是一篇关于鱼眼相机的SLAM的介绍以及开源demo体验的介绍,希望有兴趣的小伙伴能够自行体验,并积极分享相关内容。欢迎交流和讨论,联系邮箱:dianyunpcl@163.com
论文地址: http://arxiv.org/pdf/1809.08379v2.pdf
论文阅读模块将分享点云处理,SLAM,三维视觉,高精地图相关的文章。公众号致力于理解三维视觉领域相关内容的干货分享,欢迎各位加入我,我们一起每天一篇文章阅读,开启分享之旅,有兴趣的可联系微信dianyunpcl@163.com。
领取专属 10元无门槛券
手把手带您无忧上云