前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >densenet解析_给我一个承诺详细解读

densenet解析_给我一个承诺详细解读

作者头像
全栈程序员站长
发布2022-11-11 11:07:20
5660
发布2022-11-11 11:07:20
举报

大家好,又见面了,我是你们的朋友全栈君。

这篇文章是Densely Connected Convolutional Networks的解读,在精简部分内容的同时补充了相关的概念。如有错误,敬请指正。 论文地址:https://arxiv.org/abs/1608.06993 代码地址:https://github.com/liuzhuang13/DenseNet

Abstract

最近在卷及网络方面的进展显示,如果在深层网络中的输入和输出层中加入shortcut连接,会提高正确率和训练效率。根据这一发现,我们提出了一种新的网络结构:DenseNet,以前馈的方式来将每一层和其他所有层连接起来。对于每一层来说,之前所有层的feature maps都将作为输入;同时这一层的feature map将会作为之后所有层的输入。DenseNet有如下优点:减轻了梯度消失的现象;强化了特征传播;高效地重复使用特征;减少了参数的数量。

1. Introduction

当CNN网络深度剧增时,梯度消失的问题凸显出来。ResNet和Highway Networks通过恒等映射将信号传递到更深层的网络。有许多方法对ResNet进行了改进,这些方法虽然在网络拓扑结构,训练方法上有所差异,但实质上有一个重要的共性:在层间进行shortcut连接。 本文将这种思想作了进一步升华:在层间保证最大的信息流动,即将所有层直接连接起来。Figure 1. 展示了这种结构。

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

和ResNet不同的是,DenseNet在features流向下一层之前,不做叠加,而是通过层间的连接将特征融合。因此,第 \ell 层将会有 \ell 个输入,由之前的所有层的卷积模块的特征图组成。而这一层的特征图将会输入到之后的 L L-\ell层。因此,对于一个 L L层的网络,将会产生 L(L+1)/2 L(L+1)/2个连接,而不是像传统的网络架构那样,只有 L L条连接。 这种连接貌似会产生更多的参数,但实际上DenseNet所需的参数要比传统的神经网络少。因为网络不需要学习冗余的特征图。在传统的前馈网络中,每一层网络都需要从前一层中获得输入,经过变换后再传入下一层。ResNet将需要保留的信息显式地通过恒等变换传入之后的层。但是因为ResNet每一层都有自己的权重参数,所以参数总数更多。DenseNet对输入网络中的信息和需要保留的信息作出了显示的区分。DenseNet的层非常窄,比如只有每层只有12个filter。并且只对网络中共有信息增添了一小部分feature map,其余的特征图保持不变。最后的分类器基于网络中所有的特征图来进行最终的判别。 DenseNet的另一个优势是优化的信息和梯度流动。因为每一层都和损失函数的梯度有直接的连接。更重要的是,密集连接具有正则化的作用,可以减小在较小数据集上的过拟合。

2. Related Work

与深层网络优化相关的工作有:

  • Highway Networks:可训练达100层的网络 ResNet stochastic
  • depth训练方法:证明了深层网络实际上存在大量的参数冗余
  • Network in Network(NIN):在网络中加入了多层微网络结构,以提取更加复杂的特征
  • Deeply Supervised Network(DSN):由额外的分类器来监督内层网络的学习过程,可以增强靠前的多层网络接收到的梯度。
  • Ladder Networks:在自编码器中引入了侧向连接,在半监督学习中产生了很好的效果。
  • Deeply-Fused Nets (DFNs) :不同分支的网络在中间层进行融合(加和或拼接等方式),能够(1)产生很多潜在的共享参数的基础网络,(2)同时优化信息的流动,(3)从而帮助深层网络的训练过程。

DenseNet的创新在于,不是简单地通过加深网络层数或者拓展单层的宽度来获得新的网络架构,而是通过特征重用(feature reuse)来获得很高的参数利用率。

3. DenseNets

假设图像输入为 x0 x_{0},网络由 L L层,每一层都包含一个非线性变换 Hℓ(⋅) H_\ell(\cdot),这个非线性变换可以是BN,ReLU,Pooling,或者卷积层。设第 \ell层的输出为 xℓ x_{\ell}。

ResNets.

ResNet在原始网络的基础上增加了一个恒等映射:

xℓ=Hℓ(xℓ−1)+xℓ−1 x_{\ell}=H_\ell(x_{\ell-1})+x_{\ell-1}

ResNet的优点是,在反向传播的时候,靠后层的梯度可以通过恒等映射直接传导到之前的层。但是注意恒等映射 xℓ−1 x_{\ell-1}和 Hℓ H_\ell是直接相加的,这可能导致对信息传递的阻碍。

Dense connectivity.

为了提高信息在层间的传递,我们将每一层和其他的层直接连接起来。此时,第 \ell层接收到之前所有层的特征图作为输入:

xℓ=Hℓ([x0,x1,...,xℓ−1]) x_{\ell}=H_\ell([x_{0},x_{1},...,x_{\ell-1}])

为方便实现,将多重输入 [x0,x1,...,xℓ−1] [x_{0},x_{1},...,x_{\ell-1}]连接成一个张量。

Composite function.

Hℓ H_\ell定义成一个复函数,包含BN,ReLU和一个 3×3 3\times3卷积。

Pooling layers.

以上公式中使用的连接操作在特征图大小改变的时候将变得不可行。而卷积中的down-sampling操作又正好会改变特征图的大小。为了解决这个问题,将网络变成多个密集连接的dense blocks,如下图:

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

将相邻两个dense blocks之间的层称作transition layers,进行卷积和池化操作。在实验中使用的transition layers包含一个BN,一个 1×1 1\times1卷积层和一个 2×2 2\times2池化层。

Growth rate

如果每一个 Hℓ H_\ell产生 k k个特征图,那么第 \ell层将会有 k0+k×(−1) k_0+k\times(\ell-1)个输入特征图。其中, k0 k_0是输入层的通道数。将超参数 k k定义为网络的增长率(growth rate)。在接下来的章节中可以看到,使用一个小的增长率,已经可以实现很好的正确率。因为每一层都和之前的层有所联系,因此每一层也都能共享网络的公有知识(collective knowledge)。

Bottleneck layers

1∗1 1*1卷积可以当做一个bottleneck层来使用。在 3∗3 3*3卷积之前引入,可以降低输入特征图的数量,以提高计算效率。在试实验中,使用 BNReLUConv(1×1)−BNReLUConv(3×3) BN-ReLU-Conv(1\times1)-BN-ReLU-Conv(3\times3)的网络结构,并且每一个 1×1 1\times1卷积产生 4×k 4\times k个特征图,将这种网络结构定义为DenseNet-B

Compression

为了使模型更加紧凑,可以减少transition layers中的特征图数量。如果一个dense block中有 m m个特征图,可以令紧接着的transition layer生成 [θm] [\theta m]个特征图,其中 [0<θ<1] [0<\theta<1]为压缩率。当 θ=1 \theta=1的时候,经过transition layer的特征图数量不变。当 θ<1 \theta<1时。将相应的网络定义为DenseNet-C(在实验中设置 θ=0.5 \theta=0.5)。当使用bottleneck并且transition layers的 θ<1 \theta<1时,定义为DenseNet-BC

Implementation Details

除开ImageNet,在实验中使用的DenseNet都有三个dense block,每一个都有相同数量的layer。在输入数据进入第一个dense block之前,会首先经过一个有16(对于DenseNet-BC,数量是增长率的两倍)个输出通道的卷积层。卷积核的大小为 3×3 3\times 3,使用zero-padded来保持特征图大小固定。在最后一个dense block,使用global average pooling,紧接着使用一个softmax分类器。对于三个不同的dense block,分别使用 32×32 32\times 32、 16×16 16\times 16、 8×8 8\times 8的特征图大小。实验中使用如下几种配置: { L=40,k=12} \{L=40,k=12 \}、 { L=100,k=12} \{L=100,k=12 \}、 { L=100,k=24} \{L=100,k=24 \}。对于DenseNet-BC,以下配置: { L=100,k=12} \{L=100,k=12 \}、 { L=250,k=24} \{L=250,k=24 \}、 { L=190,k=40} \{L=190,k=40 \}也进行了实验。 在ImageNet上,使用了如下的DenseNet-BC结构: 4个dense block, 224×224 224\times224个输入图像。初始的卷积层由 2×k 2\times k个卷积组成,大小为 7×7 7\times7,步长为2。其他所有层的特征图数量为 k k。具体细节详见Table1。

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

4. Experiments

在CIFAR和SVHN数据集上的实验结果如下:

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

Classification Results on CIFAR and SVHN

Accuracy.

使用不同的深度 L L和增长率 k k来训练网络。结果详见Table 2。注意到DenseNet-BC( L=190 L=190, k=40 k=40),在CIFAR数据集上的正确率很高。在SVHN上,使用dropout方法的DenseNet( L=100 L=100, k=24 k=24)也超过ResNet的最好记录。但是,250层的DenseNet-BC正确率不高,原因可能是SVHN在这种极深的网络上发生了过拟合。

Parameter Efficiency.

250层的DenseNet模型仅仅有15M参数,正确率高于有30M参数的FractalNet和Wide ResNets。Figure 3给出了ResNet和DenseNet-BC的比较。

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

4.4. Classification Results on ImageNet

FIgure 4给出了在ImageNet上的详细测试结果:

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

5. Discussion

Model compactness

因为DenseNet中使用了密集连接的方式,特征图能被所有层共享,提高了特征重用的效率,也使得模型更加紧凑。从FIgure 4中可以发现,对于6%左右的测试误差,DenseNet的参数为ResNet的三分之一。对于性能相似的ResNet-1001和DenseNet-100,前者参数数量为10M,后者仅为0.8M。

Implicit Deep Supervision

DenseNet正确率提高的一种解释是,每一层通过shortcut收到了来自损失函数的额外监督(additional supervision)。关于deeply-supervised nets(DSN)的解释可见1,DSN在每一个隐层中都使用了分类器,使中间层学习分类特征。 DenseNet使用一种隐式的deep supervision策略,即只在网络终端使用一个单独的分类器来直接监督所有的层。但是相对DSN来说,DenseNet的损失函数和梯度要相对简单一些,因为所有的层都共享一个损失函数。

Feature Reuse

DenseNet的网络结构允许每一层利用之前层的特征。可以设计实验来验证这一点,在C10+数据集上使用 L=40 L=40、 k=12 k=12的DenseNet,对于每一个block中的卷积层 \ell,计算被分配给 s s层的平均权重。Figure 5 给出了3个Dense block的图示。 平均绝对权重代表了卷积层对之前层的依赖性。位置 (,s) (\ell, s)处的红点表示, \ell层大量使用了 s <script type="math/tex" id="MathJax-Element-175">s</script>层产生的特征图。

densenet解析_给我一个承诺详细解读
densenet解析_给我一个承诺详细解读

从图中可以发现如下规律:

  1. 所有的层将权重传播到同一个block,这表明靠后层通过同一个dense block使用了靠前层的特征
  2. Transtions layer在它之前的所有层传播了权重,表明信息通过间接的方式从前向后流动
  3. 第二和第三个dense block 中的层没有想transition layer 的输出层(三角形最上边的一行)分配权重,说明transition layer输出了许多冗余的特征(平均权重很低)
  4. 虽然最终的分类层(最右边的一层)使用了整个dense block的权重,但是从图上能发现最后的特征图权重的集中,这暗示了在网络的最后几层可能产生了高阶特征。

  1. C.-Y. Lee, S. Xie, P. Gallagher, Z. Zhang, and Z. Tu. Deeplysupervised nets. In AISTATS, 2015.

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/187882.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022年9月29日 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Abstract
  • 1. Introduction
  • 2. Related Work
  • 3. DenseNets
    • ResNets.
      • Dense connectivity.
        • Composite function.
          • Pooling layers.
            • Growth rate
              • Bottleneck layers
                • Compression
                  • Implementation Details
                  • 4. Experiments
                    • Classification Results on CIFAR and SVHN
                      • Accuracy.
                      • Parameter Efficiency.
                    • 4.4. Classification Results on ImageNet
                    • 5. Discussion
                      • Model compactness
                        • Implicit Deep Supervision
                          • Feature Reuse
                          领券
                          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档