前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【目标检测】开源 | 记忆增强的全局-局部聚合用于视频目标检测,在ImageNet VID数据集上表现SOTA

【目标检测】开源 | 记忆增强的全局-局部聚合用于视频目标检测,在ImageNet VID数据集上表现SOTA

作者头像
CNNer
发布2020-06-29 16:43:18
1.1K0
发布2020-06-29 16:43:18
举报
文章被收录于专栏:CNNerCNNer

论文地址:http://arxiv.org/pdf/2003.12063v1.pdf 代码:https://github.com/scalsol/mega.pytorch 来源:北京大学 论文名称:Memory Enhanced Global-Local Aggregation for Video Object Detection 原文作者:Yihong Chen

由于单帧图像的质量下降,只利用一幅图像中的信息很难识别出该帧中被遮挡的目标。在本文中认为,识别视频中的目标有两个关键内容:全局语义信息和局部定位信息。近几年来,很多方法都采用自注意机制来增强具有全局语义信息或局部定位信息的关键帧的特征。本文引入了记忆增强型全局-局部聚合(MEGA)网络,这是最先充分考虑全局和局部信息的网络之一。此外,基于一个新颖而精心设计的LRM (Long Range Memory)模块,本文提出的MEGA可以使关键帧获得比以前任何方法都要多的内容。在这两个信息源的增强下,本文的方法在ImageNet VID数据集上达到了最先进的性能。

下面是论文具体框架结构以及实验结果:

声明:文章来自于网络,仅用于学习分享,版权归原作者所有。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-06-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CNNer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档