论文地址: https://arxiv.org/pdf/2001.00309.pdf
代码: https://git.io/AdelaiDet
来源: 阿德莱德大学,东南大学,华为诺亚方舟实验室
论文名称:BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation
原文作者:Hao Chen
内容提要
实例分割是最基本的视觉任务之一。最近,全卷积实例分割方法受到了广泛的关注,因为它们通常比Mask R-CNN等两阶段方法更简单、更有效。到目前为止,在模型计算复杂度相似的情况下,几乎所有这些方法的掩模精度都落后于两阶段Mask R-CNN方法,存在很大的改进空间。在本文中,通过有效地结合实例级信息和较低级别细粒度的语义信息,对掩码预测进行了改进。本文主要的贡献是一个blender模块,它从自顶向下和自底向上的实例分割方法中获得灵感。本文提出的BlendMask用很少的通道,就可以有效地预测密集的每个像素敏感位置的实例特征,并通过一个卷积层学习每个实例的注意力映射,从而提高推理速度。BlendMask可以很容易地与SOTA的单级检测框架合并,在相同的训练计划下比Mask R-CNN快20%。一个轻量级版本的BlendMask在1080Ti GPU卡上以25帧/秒的速度获得了34.2% mAP。由于BlendMask的简单性和有效性,我们希望它可以作为一个简单而强大的基线,用于广泛的实例预测任务。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系删除。