前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【SLAM】百度--基于深度注意力感知特征的自动驾驶视觉定位框架,实现了厘米级的定位精度!

【SLAM】百度--基于深度注意力感知特征的自动驾驶视觉定位框架,实现了厘米级的定位精度!

作者头像
CNNer
发布2020-09-23 16:16:01
8740
发布2020-09-23 16:16:01
举报
文章被收录于专栏:CNNer

论文地址:https://arxiv.org/pdf/2003.03026.pdf

代码:

来源: 百度自动驾驶技术部

论文名称:DA4AD: End-to-End Deep Attention-based Visual Localization for Autonomous Driving

原文作者:Yao Zhou

内容提要

本文提出了一种基于深度注意力感知特征的自动驾驶视觉定位框架,实现了厘米级的定位精度。传统的视觉定位方案依赖于人工特征或道路上的人造物体。存在严重的外观或光线变化而导致的匹配不稳定问题,而且在有挑战性的场景中过于稀缺而无法提供稳定和鲁棒的定位结果。在本文中,试图基于深度注意力机制,通过一种新颖的端到端深度神经网络,在场景中寻找显著的、稳定的且有利于长期匹配的特征。此外,学习的特征描述子能够建立鲁棒匹配,从而成功地估计出高精度的最佳相机姿态。本文使用新收集的数据集全面验证了我们方法的有效性,该数据集具有高质量的真实轨迹和传感器之间的硬件同步。实验结果表明,在各种具有挑战性的环境下,相比于基于激光雷达的定位方案,本文方法具有相当高的定位精度,从而为自动驾驶提供了一种可能的低成本定位方案。

主要框架及实验结果

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-09-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CNNer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档