首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

激光-视觉-惯性里程计与建图

泡泡图灵智库,带你精读机器人顶级会议文章

标题:Laser–visual–inertial odometry and mapping with high robustness and low drift

作者:Ji Zhang,Sanjiv Singh

来源:JOURNAL OF FIELD ROBOTICS

播音员:

编译:杨健博

审核:尹双双

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

大家好,今天为大家带来的文章是——激光-视觉-惯性里程计与建图,该文章发表于JOURNAL OF FIELD ROBOTICS。

文章提出了一个利用3D激光扫描仪数据,影像数据和IMU数据在线进行运动估计和地图构建的处理流程。与传统的使用卡尔曼滤波器或者因子图优化的方法不同,文章提出的方法使用了一个有序多层的从粗略配准到精确优化的处理流程。首先使用IMU测量值做运动预测,然后使用IMU和视觉结合的方案来估计运动,之后再利用一个激光雷达帧与帧的匹配做进一步的优化和地图注册。此外,该方法还可以通过绕过失效模块的自动配置来处理传感器退化问题。因此,它既可以在高动态运动的环境中运行,也可以在黑暗、无纹理和无结构的环境中运行。在实验中,该方法在超过9.3公里的导航过程中的相对位置漂移为0.22%,包括运行,跳跃,甚至高速公路速度驾驶(高达33米/秒)。

主要贡献

1.文章提出了一种模块化的处理流程利用激光雷达,相机和IMU来进行运动估计和多层优化来建图。

2.文章提出的处理流程可以绕开失效模块,利用其余部分来处理持续工作,可以解决环境恶化和侵略性运动。

3.文章提出的方法可以用于在已有的地图上进行定位和建图。

4.文章提出的方法在复杂环境下进行了多次的实验。

算法流程

图1.文章方法的处理流程。从IMU的机械化预测开始,视觉惯性耦合方法估计自我运动,然后扫描匹配方法进一步细化估计运动。从左到右,运动由粗到细逐步恢复,精度逐步提高到较高水平。此外,右边的两个模块提供反馈,以纠正速度漂移和IMU的偏差。

图2.视觉-惯性里程计子模块。

视觉-惯性里程计模块基于作者之前的工作:

Zhang, J., Kaess, M., & Singh, S. (2014). Real‐time depth enhanced monocular odometry. In IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Chicago, IL.

在此模块中,IMU和视觉都被作为约束来对位姿进行优化,同时对视觉特征赋予深度信息。

图3.lidar帧与帧匹配的子模块。

此模块基于作者之前的工作:

Zhang, J. & Singh, S. (2014). LOAM: Lidar odometry and mapping in real‐ time. Robotics: Science and Systems Conference (RSS), Berkeley, CA.

在此模块中,帧和帧之间的匹配可以最小化每一帧到地图的距离,同时前几个模块也可以作为约束加入此模块。

图4.传感器退化的处理方法。a.如果视觉特征不足够,IMU的预测值会忽略绿色的模块直接进行帧与帧的匹配校准。利用激光模块的反馈值对IMU进行校准。b.如果三维结构不足够,视觉-惯性模块会忽略蓝色模块。

主要结果

图5.传感器搭载在汽车上对校园环境进行建图。整体距离为2.7千米,平均速度为2.8m/s,用时16分钟。(a) 表示了建成的地图和3个视角。(b)表示了车辆轨迹(红色)和激光点(蓝色)。

图6.传感器搭载在车辆上在道路环境测试,距离为9.3km。路径经过了多种环境,包括桥梁,山坡和亚种堵塞路段。高程变化超过70米。平均速度为9-18m/s。左边的图用颜色来表示高程。右边的图是地图的不同视角。

图7.预测轨迹。轨迹从黑点开始。我们比较了四种测试结果。绿色虚线表示视觉-惯性模块的结果。蓝色虚线表示IMU+lidar模块。黑色虚线用所有的约束一起进行优化。红色实线表示文章提出方法的结果。

图8.文章的方法与LOAM以及v-LOAM测试结果的比较。

Abstract

We present a data processing pipeline to online estimate ego‐motion and build a map of the traversed environment, leveraging data from a 3D laser scanner, a camera, and an inertial measurement unit (IMU). Different from traditional methods that use a Kalman filter or factor‐graph optimization, the proposed method employs a sequential, multilayer processing pipeline, solving for motion from coarse to fine. Starting with IMU mechanization for motion prediction, a visual–inertial coupled method estimates motion; then, a scan matching method further refines the motion estimates and registers maps. The resulting system enables high‐frequency, low‐latency ego‐motion estimation, along with dense, accurate 3D map registration. Further, the method is capable of handling sensor degradation by automatic reconfiguration bypassing failure modules. Therefore, it can operate in the presence of highly dynamic motion as well as in the dark, texture‐less, and structure‐less environments. During experiments, the method demonstrates 0.22% of relative position drift over 9.3 km of navigation and robustness w.r.t. running, jumping, and even highway speed driving (up to 33 m/s).

如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190821A02UMV00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券