前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >FSAF:嵌入anchor-free分支来指导acnhor-based算法训练 | CVPR2019

FSAF:嵌入anchor-free分支来指导acnhor-based算法训练 | CVPR2019

原创
作者头像
VincentLee
修改2021-07-02 14:27:36
2990
修改2021-07-02 14:27:36
举报

FSAF深入地分析FPN层在训练时的选择问题,以超简单的anchor-free分支形式嵌入原网络,几乎对速度没有影响,可更准确的选择最优的FPN层,带来不错的精度提升undefined 

来源:晓飞的算法工程笔记 公众号

论文: Feature Selective Anchor-Free Module for Single-Shot Object Detection

Introduction


  目标检测的首要问题就是尺寸变化,许多算法使用FPN以及anchor box来解决此问题。在正样本判断上面,一般先根据目标的尺寸决定预测用的FPN层,越大的目标则使用更高的FPN层,然后根据目标与anchor box的IoU进一步判断,但这样的设计会带来两个限制:拍脑袋式的特征选择以及基于IoU的anchor采样。

  如图2所示,60x60选择中间的anchor,而50x50以及40x40的则选择最小的anchor,anchor的选择都是人们根据经验制定的规则,这在某些场景下可能不是最优的选择。

  为了解决上述的问题,论文提出了简单且高效的特征选择方法FSAF(feature selective anchor-free),能够在每轮训练中选择最优的层进行优化。如图3所示,FSAF为FPN每层添加anchor-free分支,包含分类与回归,在训练时,根据anchor-free分支的预测结果选择最合适的FPN层用于训练,最终的网络输出可同时综合FSAF的anchor-free分支结果以及原网络的预测结果。

Network Architecture


  FSAF的网络结果非常简单,如图4所示。在原有的网络结构上,FSAF为FPN每层引入两个额外的卷积层,分别用于预测anchor-free的分类以及回归结果。这样,在共用特征的情况下,anchor-free和anchor-based的方法可进行联合预测。

Ground-truth and Loss


  对于目标$b=x,y,w,h$,在训练时可映射到任意的FPN层$P_l$,映射区域为$b^l_p=x^l_p, y^l_p, w^l_p, h^l_p$。一般而言,$b^l_p=b/2^l$。定义有效边界$b^l_e=x^l_e, y^l_e, w^l_e, h^l_e$和忽略边界$b^l_i=x^l_i, y^l_i, w^l_i, h^l_i$,可用于定义特征图中的正样本区域、忽略区域以及负样本区域。有效边界和忽略边界均与映射结果成等比关系,比例分别为$\epsilon_e=0.2$和$\epsilon_i=0.5$,最终的分类损失为所有正负样本的损失值之和除以正样本点数。

Classification Output

  分类结果包含$K$维,目标主要设定对应维度,样本定义分以下3种情况:

  • 有效边界内的区域为正样本点。
  • 忽略边界到有效边界的区域不参与训练。
  • 忽略边界映射到相邻的特征金字塔层中,映射的边界内的区域不参与训练
  • 其余区域为负样本点。

  分类的训练采用focal loss,$\alpha=0.25$,$\gamma=2.0$,完整的分类损失取所有正负区域的损失值之和除以有效区域点数。

Box Regression Output

  回归结果输出为分类无关的4个偏移值维度,仅回归有效区域内的点。对于有效区域位置$(i,j)$,将映射目标表示为$d^l{i,j}=[d^l{t{i,j}}, d^l{l{i,j}}, d^l{b{i,j}}, d^l{r{i,j}}]$,分别为当前位置到$b^l_p$的边界的距离,对应的该位置上的4维向量为$d^l{i,j}/S$,$S=4.0$为归一化常量。回归的训练采用IoU损失,完整的anchor-free分支的损失取所有有效区域的损失值的均值。

Online Feature Selection


  anchor-free的设计允许我们使用任意的FPN层$P_l$进行训练,为了找到最优的FPN层,FSAF模块需要计算FPN每层对目标的预测效果。对于分类与回归,分别计算各层有效区域的focal loss损失以及IoU loss损失:

  在得到各层的结果后,取损失值最小的层作为当轮训练的FPN层:

Joint Inference and Training


Inference

  由于FSAF对原网络的改动很少,在推理时,稍微过滤下anchor-free和anchor-based分支的结果,然后合并进行NMS。

Optimization

  完整的损失函数综合anchor-based分支以及anchor-free分支,$L=L^{ab}+\lambda(L^{af{cls}}+L^{af{reg}})$

Experiments


  各种结构以及FPN层选择方法的对比实验。

  精度与推理速度对比。

  与SOTA方法对比。

Conclusion


  FSAF深入地分析FPN层在训练时的选择问题,以超简单的anchor-free分支形式嵌入原网络,几乎对速度没有影响,可更准确的选择最优的FPN层,带来不错的精度提升。需要注意的是,虽然抛弃以往硬性的选择方法,但实际上依然存在一些人为的设定,比如有效区域的定义,所以该方法还不是最完美的。

如果本文对你有帮助,麻烦点个赞或在看呗~undefined更多内容请关注 微信公众号【晓飞的算法工程笔记】

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • Network Architecture
  • Ground-truth and Loss
    • Classification Output
      • Box Regression Output
      • Online Feature Selection
      • Joint Inference and Training
        • Inference
          • Optimization
          • Experiments
          • Conclusion
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档