前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【目标检测】目标检测和实例分割中应用CIoU损失和Cluster-NMS,不牺牲推理效率的情况下,显著提高AP和AR

【目标检测】目标检测和实例分割中应用CIoU损失和Cluster-NMS,不牺牲推理效率的情况下,显著提高AP和AR

作者头像
CNNer
发布2020-06-19 16:13:17
1.8K0
发布2020-06-19 16:13:17
举报
文章被收录于专栏:CNNerCNNer

论文地址:http://arxiv.org/pdf/2005.03572v2.pdf 代码:https://github.com/zzh-tju/ciou 来源:天津大学 论文名称:Enhancing Geometric Factors in Model Learning and Inference forObject Detection and Instance Segmentation 原文作者:Zhaohui Zheng

基于深度学习的目标检测和实例分割取得了前所未有的进展。在本文中,我们提出了CIoU (Complete-IoU)损失和Cluster-NMS来增强边界盒回归和非最大抑制(NMS)中的几何因子,在不牺牲推理效率的情况下,平均精度(AP)和平均召回率(AR)都有显著提高。在本文中,特别关注目标检测和实例分割中测量边界盒回归的三个关键点——重叠区域,归一化中心点距离和高宽比。为了更好地区分难回归的情况,将这三个几何因子被纳入到CIoU损失中。利用CIoU损失对深度模型进行训练,相比于广泛采用的n范数损失和IoU-based损失,结果得到一致的AP和AR改进。此外,我们提出了Cluster-NMS,其中NMS在推理期间是通过隐式聚类检测框来完成的,一般需要更少的迭代。由于它纯粹的GPU实现,可以合并几何因子提高AP和AR,所以Cluster-NMS是非常有效的。将CIoU损失和Cluster-NMS应用于实例分割(例如YOLACT)和目标检测(例如YOLOv3, SSD 和 Faster R-CNN)模型实验中,性能表现SOTA。以MS COCO上的YOLACT为例,使用NVIDIA GTX 1080Ti GPU可以达到27.1 FPS,同时本文的方法在目标检测上提升了1.7 AP和6.2 AR100,在实例分割上提升了0.9 AP和3.5 AR100。

下面是论文具体框架结构以及实验结果:

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系删除。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-06-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CNNer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
图像识别
腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档