前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >华科提出目标检测新方法:基于IoU-aware的定位改进,简单又有效

华科提出目标检测新方法:基于IoU-aware的定位改进,简单又有效

作者头像
AI科技大本营
发布2019-12-23 17:04:38
1.2K0
发布2019-12-23 17:04:38
举报
作者 | 周强

来源 | 我爱计算机视觉(ID:aicvml)

【导语】近日,华中科技大学发表了一篇新论文《IoU-aware Single-stage Object Detector for Accurate Localization》,在此论文中作者提出了一种非常简单的目标检测定位改进方法,通过预测目标候选包围框与真实目标标注的IoU(交并比),并基于此与分类分数的乘积作为检测置信度,用于NMS(非极大抑制)和COCO AP计算,显著提高了目标检测的定位精度。

作者均来自华中科技大学,并称代码将开源,不过目前还未公布地址。

论文地址:

https://arxiv.org/pdf/1912.05992.pdf

在目标检测问题中,模型需要输出目标分类分数和与其对应的目标定位的包围框,在以往的模型中,经常使用分类分数作为目标定位准不准的置信度,并基于此对大量候选目标包围框NMS,现在越来越多的工作发现,分类分数高并不能保证定位精度高。

作者认为IoU是直接反应定位准不准的直接指标,可以在目标检测模型的分类和定位任务的基础上添加IoU预测的任务,可以在一定程度上反应定位置信度。

  • 作者是在著明的一阶段目标检测算法RetinaNet基础上做的改进,如下图:

在包围框回归分支添加一个并行的预测IoU的任务。

  • 相关的损失函数数学描述:

作者将分类分数和预测得到的IoU相乘,这个指标既反应了是不是这个目标,又反应了该位置和真实目标的可能的交并比,认为它是更加精确的检测置信度:

公式中参数 α 用于控制两者的贡献大小。

  • 实验结果

作者在COCO test-dev上与其他State-of-the-art算法的结果比较:

可见,相比于基线RetinaNet,取得了显著的AP提升,提升在1.0%∼1.6%之间。

在PASCAL VOC数据集上与RetinaNet的比较结果:

同样取得了显著的AP提升,AP 提升在1.1%∼2.2%之间。

这篇文章尽管思路比较简单,但改进还是明显的,希望对其他目标检测算法也有效,期待有更多实验结果出来。

(*本文为AI科技大本营转载文章,转载请联系作者)

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-12-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
图像识别
腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档