首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

利用相对位姿信息进行辅助学习的视觉定位和里程估计方法

每天一分钟,带你读遍机器人顶级会议文章

标题:Deep Auxiliary Learning for Visual Localization and Odometry

作者:Abhinav Valada 、 Noha Radwan 、 Wolfram Burgard

来源:2018 IEEE International Conference on Robotics and Automation

播音员:Sophie

编译:杨小育

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

大家好,今天为大家带来的文章是——利用相对位姿信息进行辅助学习的视觉定位和里程估计方法,该文章发表于ICRA 2018。

定位是机器人自主运行必备的一项功能,它可以确定机器人在当前环境中所处的位置,同时也是进行路径规划或其他任务的前提条件。于传统的方法相比,尽管卷积神经网络在视觉定位方面有出色的表现,但它仍是基于局部特征实现的。在本文中我们提出VLocNet,一种新的卷积神经网络架构,来实现从连续的单目图像中进行6-DoF全局位姿和里程估计。我们的多任务模型融合了一些难以共享的参数,因此除了可以进行端到端的可训练之外,还可以实现紧凑的实时推断。文章中提出了一种新的损失函数,在训练期间使用辅助学习对相对位姿信息加以利用,从而约束了搜索空间以获得一致的姿态估计。我们在室内数据集和室外数据集上对VLocNet进行了评估,实验结果表明即使是单一任务模型,在全局定位方面也比现有的最先进的深度神经网络性能优异,同时还具备视觉里程计功能。此外,我们使用所提出的几何一致性损失进行了广泛的实验评估,来证明VLocNet在多任务学习方面的有效性,同时实验结果表明在某些情况下,VLocNet的表现优于一些基于SIFT的方法。

图1 本文中的多任务深度卷积神经网络

该网络将两张连续的单目图像作为输入,同时进行全局的6-DoF位姿和里程估计。

图2VLocNet和PoseNet的定位效果对比

图3 VLocNet的定位误差

图4 单一任务模型和使用不同权重初始化的具有多任务能力的VLocNet的效果对比,(该实验使用7-Scenes数据集)

Abstract

Localization is an indispensable component of a robot’s autonomy stack that enables it to determine where it is in the environment, essentially making it a precursor for any action execution or planning. Although convolutional neural networks have shown promising results for visual localization, they are still grossly outperformed by state-of-the-art local feature based techniques. In this work, we propose VLocNet, a new convolutional neural network architecture for 6-DoF global pose regression and odometry estimation from consecutive monocular images. Our multitask model incorporates hard parameter sharing, thus being compact and enabling real-time inference, inaddition to being end-to-end trainable.We propose a novel loss function that utilizes auxiliary learning to leverage relative pose information during training, thereby constraining the search space to obtain consistent pose estimates. We evaluate our proposed VLocNet on indoor as well as outdoor datasets and show that even our single task model exceeds the performance of state-of-the-art deep architectures for global localization, while achieving competitive performance for visual odometry estimation. Furthermore, we present extensive experimental evaluations utilizing our proposed Geometric Consistency Loss that show the effectiveness of multitask learning and demonstrate that our model is the first deep learning technique to be on par with, and in some cases outperforms state-of-the art SIFT-based approaches.

如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180505A05L9900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券