前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >应对长尾分布的目标检测 -- Balanced Group Softmax

应对长尾分布的目标检测 -- Balanced Group Softmax

作者头像
Mezereon
发布2021-05-24 16:07:59
1.2K0
发布2021-05-24 16:07:59
举报
文章被收录于专栏:MyBlog

应对长尾分布的目标检测 -- Balanced Group Softmax

这次给大家介绍一篇CVPR2020的文章,题为“Overcoming Classifier Imbalance for Long-tail Object Detection with Balanced Group Softmax”,主要解决目标检测中的长尾数据分布问题,解决方案也十分简洁。

长尾分布的数据

首先,长尾分布的数据广泛存在,这里以COCO和LVIS两个数据集为例,如下图所示:

long-tail

横坐标是类别的索引,纵坐标是对应类别的样本数量。

可以看到,在这两个数据集当中,存在着明显的长尾分布。

以往应对长尾分布的方法

这里给出一些相关的工作,按类别给出:

  • 基于数据重采样(data re-sampling)
    • 对尾部数据进行过采样:Borderline-smote: a new over-sampling method in im- balanced data sets learning
    • 对头部数据进行删减:class imbalance, and cost sensitivity: why under-sampling beats over sampling
    • 基于类别平衡的采样:Exploring the limits of weakly supervised pretraining.
  • 代价敏感学习(cost- sensitive learning)
    • 通过对loss进行调整,对不同类别给予不同的权重

这些方法通常都对超参数敏感,并且迁移到检测框架的时候表现不佳(分类任务和检测任务的不同)

Balanced Group Softmax

这里直接给出算法的具体框架:

bgs

如上图所示,在训练阶段,我们会对类别进行分组,不同组内部分别计算Softmax,然后计算出各自的交叉熵误差。

对于分组,论文给的是按0,10,100,1000,+inf作为切分点进行切分

这里我们需要为每一个组分别添加一个other类别,使得,当目标类别不在某一个组的时候,groundtruth设置为other。

最终的误差形式为:

L_k=-\sum_{n=0}^{N}\sum_{i\in G_n}y_i^n\log (p_i^n)
L_k=-\sum_{n=0}^{N}\sum_{i\in G_n}y_i^n\log (p_i^n)

其中, 是

N
N

组的数量,

G_n
G_n

是第

n
n

个组的类别集合,

p
p

是模型输出的概率,

y
y

是标签。

效果评估

这里给出一张全面对比的精度表

comparison

AP的下标对应着划分的组的索引,可以看到,在尾部的精度,也就是 和 上都达到了SOTA的性能。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 应对长尾分布的目标检测 -- Balanced Group Softmax
    • 长尾分布的数据
      • 以往应对长尾分布的方法
        • Balanced Group Softmax
          • 效果评估
          相关产品与服务
          图像识别
          腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档