获取完整原文和代码,公众号回复:09020890814
论文地址: http://arxiv.org/pdf/2003.10142v3.pdf
代码: 公众号回复:09020890814
来源: 台湾国立大学
论文名称:EPSNet: Efficient Panoptic Segmentation Network with Cross-layer Attention Fusion
原文作者:Chia-Yuan Chang
内容提要
全景图像分割是融合了独立的语义分割和实例分割的任务。然而,目前最先进的研究并没有过多地关注推理时间的问题。本文中,我们提出了一种高效的全景分割网络(EPSNet),来提高全景分割任务的推理速度。在EPSNet网络中主要是基于原型掩模和掩模系数的简单线性组合。用于实例分割和语义分割的轻量级网络分支只需要预测掩码系数,并利用原型网络分支预测的共享原型生成掩码。用于实例分割的轻量级网络分支而语义分割只需要预测掩码系数和根据原型网络分支预测的共享原型来制作面具。此外,为了提高共享原型的质量,我们采用了一个叫做“跨层注意力融合模块”的模块以注意机制帮助聚集多尺度特征,该模块捕捉了彼此之间的长期依赖关系。为了验证所提出的工作,我们在COCO panoptic数据集上进行了各种实验挑战,本文的模型以显著更快的推断速度(GPU上51毫秒)实现了很好的效果。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。