前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >AAAI Oral 提前看:牛津大学利用注意力机制,实现最优相机定位(视频解读)

AAAI Oral 提前看:牛津大学利用注意力机制,实现最优相机定位(视频解读)

作者头像
AI科技评论
发布2020-02-21 11:54:50
7750
发布2020-02-21 11:54:50
举报
文章被收录于专栏:AI科技评论

作者 | 王冰

编辑 | Camel

人工智能顶级学术会议 AAAI 2020 (第 34 届 AAAI)已在美国纽约开幕,会议从 2 月 7 日持续到 2 月 12 日。

本次的AAAI大会投稿量创下了8800多份的纪录。其中7737篇被审查,接受1591篇论文,录取率为20.6%。相比2019年,今年AAAI录取率同比上升27%,投稿量同比增长13.6%。

不过由于疫情原因,据估计至少有800多名华人学者无法出席本届AAAI 2020,而大量来自中国地区的论文作者也无法到会议现场做报告。针对这种情况,组委会提出“云会议”的方案,论文作者可以录播视频oral(现场播放)或远程在线报告。

本文为牛津大学王冰等人的oral内容,隶属于“Tech Session 7: Vision: Image Retrieval, Ranking, Recognition”,将于美东时间 2月 12日下午3:50-4:50在Gramercy报告厅进行演示。我们在此可以先睹为快~

论文:https://arxiv.org/abs/1909.03557 代码:https://github.com/BingCS/AtLoc

欲观看更多AAAI 视频解读,可点击下方「阅读原文」进行访问。

同时 AI 科技评论 欢迎所有 AAAI 2020 作者分享自己的 oral 视频或poster图片。

论文简介:

深度学习在视觉定位方面取得了令人印象深刻的结果。然而基于图像的定位方法普遍缺乏鲁棒性,从而导致较大误差。当前算法多通过图像序列或添加几何约束方法,迫使网络在学习时拒绝动态目标和光照变化对定位的干扰,以获得更好的性能。

本文提出了一种利用注意力机制使网络自动关注并提取具有几何意义的对象和特征,即使仅基于单张图像,也可以实现优于利用图像序列或几何约束方法的定位结果。通过室内和室外公开数据集上的定位结果和显著图,我们阐述了如何利用注意力机制提取环境中具有几何意义的特征,从而实现最优的相机姿态回归性能。算法细节和源代码可访问https://github.com/BingCS/AtLoc下载。

(或者到AI研习社官网观看更多AAAI 2020 论文解读视频:https://www.leiphone.com/special/custom/meetingVideo.html)

作者简介:

王冰,牛津大学计算机系2018级博士,研究方向为Robotics & Computer Vision.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-02-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档