论文提出DCNv2,不仅对DCNv1的结构进行了改进,还使用了有效的蒸馏学习策略,使得性能有很大的提升,各个方面都值得借鉴undefined
来源:晓飞的算法工程笔记 公众号
论文: Deformable ConvNets v2: More Deformable, Better Results
在提出可变形卷积DCNv1后,论文提出新版本的可变形卷积DCNv2,通过两种互补的策略以及蒸馏学习来增强模型的性能:
论文从3个互补的视角来了解图像区域对输出的影响:
对conv5阶段的最后一层输出进行了上述的3个视角计算,图1从左往右目标的逐渐变大,每个子图从上往下分别为关于绿点输出的3种指标的可视化结构,可以得出以下结论:
论文继续对RoI区域也进行了上述3个视角的计算,对于常规RoI pooling和可变形RoI pooling,目标区域内的bin对输出的贡献更高,在可变形RoI pooling更为明显。但两种方法的显著区域同样都不够准确,造成有较多的额外内容干扰着输出。
由于可变形卷积能够更好地学习几何变换,因此大胆地将ResNet-50中的conv3、conv4和conv5中的所有$3\times 3$卷积替换成可变形卷积,共12层。DCNv1仅使用了3层,主要由于当时替换实验是在比较简单的VOC数据集上进行的,效果很快就饱和了,而当时在COCO上的偏移值可视化有一定的误导性,本文补充了更准确的实验。
为了进一步加强可变形卷积对几何变换学习的能力,加入调制机制,可变形卷积不仅能对输入进行偏移,还可以调整各位置输入的权重。极端地,当权重为0则忽略该位置输入,为模型提供了另一种调整目标区域的方式。
可调制变形卷积如公式1,$\Delta p_k$和$\Delta m_k$分别为$k$位置的可学习偏移值和权重标量,$\Delta m_k$的范围为$0,1$,偏移后的值的计算依然用双线性插值计算。$\Delta p_k$和$\Delta m_k$通过相同旁路卷积层计算,旁路输出channel为$3K$,$K$为主干的卷积核大小,前$2K$维是每个位置的x和y偏移,后$K$维通过sigmoid层获得每个位置的权重。旁路卷积的参数初始为0,所以$\Delta p_k$和$\Delta m_k$初始为0和0.5,学习率为主干学习率的0.1倍。
可调制的变形RoI pooling单个bin的计算如公式2,$n_k$为bin内的像素总数,$\Delta p_k$和$\Delta m_k$对应整个bin的偏移和权重。$\Delta p_k$和$\Delta m_k$通过旁路RoI pooling+2 x 1024-D fc + 3k-D fc计算,前$2K$维是归一化的bin偏移值,与RoI区域相乘后得到最终的bin偏移值,后$K$维通过sigmoid层获得每个bin的权重,初始化和学习率与上面的一致。
从图2的Error-bounded saliency regions结果看到,不管常规卷积还是可变形卷积都会包含部分非目标区域,对最终的结果造成影响。论文通过实验发现,可调制变形卷积虽然有更强的几何变换建模能力,但常规的训练没有特定的损失,很难引导可调制变形卷积的学习。因此,考虑到性能和准确率的取舍,论文加入特征模仿(feature mimicking)引导可变形卷积生成类似R-CNN从croped图片中提取到的特征。由于背景的内容较为复杂,特征模仿损失仅用于正样本。
整体的训练架构如图3,添加额外R-CNN分支用于特征模仿,分支的结构与主干网络类似。对于RoI区域$b$,从原图中crop下来并Resize后送到R-CNN分支得到$14\times 14$的特征图,再进行整图的可调制变形RoI pooling,通过两层全连接得到1024-D特征$f_{RCNN}(b)$,最后接$C+1$-way Sfotmax分类器预测分类结果。
特征模仿损失通过余弦相似度的计算,如公式3,$\Omega$为用于特征模仿的所有RoI区域。在训练时,每次随机采样32个RPN生成的正样本构成$\Omega$,同时计算特征模块损失和R-CNN分支的分类交叉熵损失。RCNN分支的两个新损失的权重为主干对应项权重的0.1倍,RCNN分支除了最后的classification head外的模块均与主干共享。在推理时,仅使用Faster R-CNN模块。
对DCNv2的两个结构改进进行了对比实验,表1和表2分别为短边1000和短边800的实验,结合图1和图2的可视化结果,两个改进都能有效地提高准确率。
对于特征模仿学习,仅模仿正样本的效果最好。
论文提出DCNv2,不仅对DCNv1的结构进行了改进,还使用了有效的蒸馏学习策略,使得性能有很大的提升,各个方面都值得借鉴。
如果本文对你有帮助,麻烦点个赞或在看呗~undefined更多内容请关注 微信公众号【晓飞的算法工程笔记】
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。