OK!计算机视觉论文速递系列正式重启,CVer将两/三天更新一次速递推文,如果时间充足,会做到每日一更。
Amusi回来了!
Amusi 将日常整理的论文都会同步发布到 daily-paper-computer-vision 上。名字有点露骨,还请见谅。喜欢的童鞋,欢迎star、fork和pull。
ECCV 2018是计算机视觉领域中的顶级会议,目前已经公开了部分已录用的paper。CVer 已经推送了9篇 ECCV 2018论文速递推文:
Object Detection
本文介绍两篇Amusi很喜欢的目标检测论文,下面会推出这两篇论文的精读解析,敬请期待!
《DetNet: A Backbone network for Object Detection》
ECCV 2018
摘要:最近的基于CNN的物体探测器,无论是像YOLO,SSD和RetinaNet这样的one-stage方法,还是像Faster R-CNN,R-FCN和FPN这样的two-stage探测器,都经常试图直接从ImageNet预先训练好的图像模型中进行微调分类。关于专门为物体检测设计的 backbone 特征提取器的讨论很少。更重要的是,图像分类和对象检测的任务之间存在若干差异。(1)最近的物体探测器如FPN和RetinaNet通常涉及额外的阶段,以防止图像分类的任务处理各种尺度的物体。 (2)目标检测不仅需要识别对象实例的类别,还需要在空间上定位位置。较大的下采样因子带来了较大的有效感受野,有利于图像分类,但会损害对象定位能力。由于图像分类和物体检测之间存在差距,本文提出了DetNet,这是一种专门用于物体检测的新型 backbone 网络。此外,DetNet还包括针对传统backbone网络的额外阶段,用于图像分类,同时在更深层中保持高空间分辨率。在没有任何其它tricks的情况下,基于我们的DetNet~(4.8G FLOP)backbone,在MSCOCO基准测试中获得了目标检测和实例分割的最优结果。
arXiv:https://arxiv.org/abs/1804.06215
注:源码还未放出
《Acquisition of Localization Confidence for Accurate Object Detection》
ECCV 2018
IoU-Net architecture
Illustration of RoI Pooling, RoI Align and PrRoI Pooling
摘要:现代的基于CNN的物体检测器依靠边界框回归和非最大抑制(NMS)来定位对象。 虽然类标签的概率自然反映了分类置信度(classification confidence),但缺乏定位置信度(localization confidence)。 这使得正确定位的边界框在迭代回归期间 degenerate 或甚至在NMS期间被抑制。 在本文中,我们提出了IoU-Net学习来预测每个检测到的边界框与匹配的ground truth 之间的IoU。 网络获得了定位置信度,通过保留精确的定位边界框来改进NMS。 此外,提出了一种基于优化的边界框细化方法,其中将预测的IoU表示为目标。 MS-COCO数据集上的大量实验表明了IoU-Net的有效性,以及它与几种最先进的物体探测器的兼容性和适应性。
arXiv:https://arxiv.org/abs/1807.11590
注:源码还未放出