前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于跳跃连接你需要知道的一切

关于跳跃连接你需要知道的一切

作者头像
AI算法与图像处理
发布2021-10-15 10:57:11
6.8K0
发布2021-10-15 10:57:11
举报
代码语言:javascript
复制
点击下方“AI算法与图像处理”,一起进步!
重磅干货,第一时间送达

介绍

我们需要训练更深的网络来执行复杂的任务。训练深度神经网络很复杂,不仅限于过度拟合、高计算成本,而且还有一些不一般的问题。我们将解决这些问题,以及深度学习社区的人们是如何解决这些问题的。让我们进入文章吧!

目录

  1. 为什么需要跳跃连接?
  2. 什么是跳跃连接?
  3. 跳跃连接的变体
  4. 跳跃连接的实现

为什么要跳跃连接?

深度神经网络的美妙之处在于它们可以比浅层神经网络更有效地学习复杂的功能。在训练深度神经网络时,模型的性能随着架构深度的增加而下降。这被称为退化问题

但是,随着网络深度的增加,模型的性能下降的原因可能是什么?让我们尝试了解退化问题的原因。

可能的原因之一是过度拟合。随着深度的增加,模型往往会过度拟合,但这里的情况并非如此。从下图可以看出,56 层的深层网络比 20 层的浅层网络具有更多的训练误差。较深的模型表现不如浅模型好。 显然,过拟合不是这里的问题。

20 层和 56 层 NN 的训练和测试误差

另一个可能的原因可能是梯度消失和/或梯度爆炸问题。然而,ResNet(https://arxiv.org/abs/1512.03385)的作者(He 等人)认为,使用批量归一化和通过归一化正确初始化权重可确保梯度具有合适的标准。但是,这里出了什么问题?让我们通过构造来理解这一点。

考虑一个在数据集上训练的浅层神经网络。此外,考虑一个更深的网络,其中初始层与浅层网络(下图中的蓝色层)具有相同的权重矩阵,并添加了一些额外的层(绿色层)。我们将添加层的权重矩阵设置为恒等矩阵(恒等映射)。

从这个构造来看,更深的网络不应产生比其浅的网络更高的训练误差,因为我们实际上是在具有附加恒等层的更深网络中使用浅模型的权重。

但实验证明,与浅层网络相比,深层网络会产生较高的训练误差。这表明更深层无法学习甚至恒等映射

训练精度的下降表明并非所有系统都同样易于优化。

主要原因之一是权重的随机初始化,均值在零、L1 和 L2 正则化附近。结果,模型中的权重总是在零左右,因此更深的层也无法学习恒等映射。

这里出现了跳跃连接的概念,它使我们能够训练非常深的神经网络。现在让我们学习这个很棒的概念。

什么是跳跃连接?

顾名思义,Skip Connections(或 Shortcut Connections),跳跃连接,会跳跃神经网络中的某些层,并将一层的输出作为下一层的输入。

引入跳跃连接是为了解决不同架构中的不同问题。在 ResNets 的情况下,跳跃连接解决了我们之前解决的退化问题,而在 DenseNets 的情况下,它确保了特征的可重用性。我们将在以下部分详细讨论它们。

甚至在残差网络之前,有的文献中就引入了跳跃连接。例如,Highway Networks(https://arxiv.org/abs/1505.00387)(Srivastava 等人)跳跃了与控制和学习信息流到更深层的门的连接。这个概念类似于 LSTM 中的门控机制。尽管 ResNets 实际上是 Highway Networks的一个特例,但与 ResNets 相比,其性能并不达标。这表明保持 Highway 梯度的畅通比gate机制更好!

神经网络可以学习任意复杂度的任何函数,可以是高维和非凸函数。可视化有可能帮助我们回答几个关于神经网络为何起作用的重要问题。

实际上,Li 等人(https://arxiv.org/abs/1712.09913)做了一些不错的工作。这使我们能够可视化复杂的损失表面。具有跳跃连接的网络的结果更令人惊讶!

有跳跃连接和没有跳跃连接的 ResNet-56 的损失表面

正如你在此处看到的,具有跳跃连接的神经网络的损失表面更平滑,因此比没有任何跳跃连接的网络收敛速度更快。让我们在下一节中看到跳跃连接的变体。

跳跃连接的变体

在本节中,我们将看到不同架构中跳跃连接的变体。跳跃连接可以在神经网络中以两种基本方式使用:加法和串联。

残差网络(ResNets)

残差网络是由 He 等人提出的。2015年解决图像分类问题。在 ResNets 中,来自初始层的信息通过矩阵加法传递到更深层。此操作没有任何附加参数,因为前一层的输出被添加到前面的层。具有跳跃连接的单个残差块如下所示:

残差块

由于 ResNet 的更深层表示,因为来自该网络的预训练权重可用于解决多个任务。它不仅限于图像分类,还可以解决图像分割、关键点检测和对象检测方面的广泛问题。因此,ResNet 是深度学习社区中最具影响力的架构之一。

接下来,我们将了解 DenseNets 中受 ResNets 启发的另一种跳跃连接的变体。

我建议你阅读以下资源以详细了解 ResNet

  • 了解 ResNet 并分析 CIFAR-10 数据集上的各种模型:https://www.analyticsvidhya.com/blog/2021/06/understanding-resnet-and-analyzing-various-models-on-the-cifar-10-dataset/
卷积网络 (DenseNets)

DenseNets(https://arxiv.org/abs/1608.06993)是由 Huang 等人提出的。

ResNets 和 DenseNets 之间的主要区别在于 DenseNets 将层的输出特征图与下一层连接而不是求和。

谈到跳跃连接,DenseNets 使用串联,而 ResNets 使用求和

串联背后的想法是在更深的层中使用从早期层学习的特征。这个概念被称为特征可重用性。因此,DenseNets 可以用比传统 CNN 更少的参数来学习映射,因为不需要学习冗余映射。

U-Net:用于生物医学图像分割的卷积网络

跳跃连接的使用也影响了生物医学领域。U-Net(https://arxiv.org/abs/1505.04597)是由 Ronneberger 等人提出的。用于生物医学图像分割。它有一个编码器-解码器部分,包括 Skip Connections。

整体架构看起来像英文字母“U”,因此得名 U-Nets。

编码器部分中的层与解码器部分中的层进行跳跃连接和级联(在上图中以灰线形式提及)。这使得 U-Nets 使用在编码器部分学习的细粒度细节在解码器部分构建图像。

这些类型的连接是长跳跃连接,而我们在 ResNets 中看到的是短跳跃连接。更多关于 U-Nets在这里:https://medium.com/analytics-vidhya/deep-learning-image-segmentation-and-localization-u-net-architecture-ea4cff5595d9

让我们实现一个讨论过的架构块以及如何在 PyTorch 中加载和使用它们!

跳跃连接的实现

在本节中,我们将从头开始使用 Skip Connections 构建 ResNets 和 DesNets。你兴奋吗?我们开始吧!

ResNet – 残差块

首先,我们将使用跳跃连接实现一个残差块。PyTorch 是首选,因为它具有超酷的特性——面向对象的结构。

代码语言:javascript
复制
# import required libraries
import torch
from torch import nn
import torch.nn.functional as F
import torchvision


# basic resdidual block of ResNet
# This is generic in the sense, it could be used for downsampling of features.
class ResidualBlock(nn.Module):
    def __init__(self, in_channels, out_channels, stride=[1, 1], downsample=None):
        """
        A basic residual block of ResNet
        Parameters
        ----------
            in_channels: Number of channels that the input have
            out_channels: Number of channels that the output have
            stride: strides in convolutional layers
            downsample: A callable to be applied before addition of residual mapping
        """
        super(ResidualBlock, self).__init__()


        self.conv1 = nn.Conv2d(
            in_channels, out_channels, kernel_size=3, stride=stride[0], 
            padding=1, bias=False
        )


        self.conv2 = nn.Conv2d(
            out_channels, out_channels, kernel_size=3, stride=stride[1], 
            padding=1, bias=False
        )


        self.bn = nn.BatchNorm2d(out_channels)
        self.downsample = downsample


    def forward(self, x):
        residual = x
        # applying a downsample function before adding it to the output
        if(self.downsample is not None):
            residual = downsample(residual)


        out = F.relu(self.bn(self.conv1(x)))
        
        out = self.bn(self.conv2(out))
        # note that adding residual before activation 
        out = out + residual
        out = F.relu(out)
        return out

由于我们手上有一个 Residual 块,我们可以构建任意深度的 ResNet 模型!让我们快速构建ResNet-34的前五层,以了解如何连接残差块。

代码语言:javascript
复制
# downsample using 1 * 1 convolution
downsample = nn.Sequential(
    nn.Conv2d(64, 128, kernel_size=1, stride=2, bias=False),
    nn.BatchNorm2d(128)
)
# First five layers of ResNet34
resnet_blocks = nn.Sequential(
    nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3, bias=False),
    nn.MaxPool2d(kernel_size=2, stride=2),
    ResidualBlock(64, 64),
    ResidualBlock(64, 64),
    ResidualBlock(64, 128, stride=[2, 1], downsample=downsample)
)


# checking the shape
inputs = torch.rand(1, 3, 100, 100) # single 100 * 100 color image
outputs = resnet_blocks(inputs)
print(outputs.shape)    # shape would be (1, 128, 13, 13)

PyTorch 为我们提供了一种简单的方法来加载具有在 ImageNet 数据集上训练的预训练权重的 ResNet 模型。

代码语言:javascript
复制
# one could also use pretrained weights of ResNet trained on ImageNet
resnet34 = torchvision.models.resnet34(pretrained=True)

DenseNet – 残差块

实现完整的残差网络会有点复杂。让我们一步一步实现。

  1. 实现一个 DenseNet 层
  2. 建立一个残差块
  3. 连接多个残差块得到一个残差网络模型
代码语言:javascript
复制
class Dense_Layer(nn.Module):
    def __init__(self, in_channels, growthrate, bn_size):
        super(Dense_Layer, self).__init__()


        self.bn1 = nn.BatchNorm2d(in_channels)
        self.conv1 = nn.Conv2d(
            in_channels, bn_size * growthrate, kernel_size=1, bias=False
        )
        self.bn2 = nn.BatchNorm2d(bn_size * growthrate)
        self.conv2 = nn.Conv2d(
            bn_size * growthrate, growthrate, kernel_size=3, padding=1, bias=False
        )


    def forward(self, prev_features):
        out1 = torch.cat(prev_features, dim=1)
        out1 = self.conv1(F.relu(self.bn1(out1)))
        out2 = self.conv2(F.relu(self.bn2(out1)))
        return out2

接下来,我们将实现一个由任意数量的残差网络层组成的残差块。

代码语言:javascript
复制
class Dense_Block(nn.ModuleDict):
    def __init__(self, n_layers, in_channels, growthrate, bn_size):
        """
        A Dense block consists of `n_layers` of `Dense_Layer`
        Parameters
        ----------
            n_layers: Number of dense layers to be stacked 
            in_channels: Number of input channels for first layer in the block
            growthrate: Growth rate (k) as mentioned in DenseNet paper
            bn_size: Multiplicative factor for # of bottleneck layers
        """
        super(Dense_Block, self).__init__()


        layers = dict()
        for i in range(n_layers):
            layer = Dense_Layer(in_channels + i * growthrate, growthrate, bn_size)
            layers['dense{}'.format(i)] = layer
        
        self.block = nn.ModuleDict(layers)
    
    def forward(self, features):
        if(isinstance(features, torch.Tensor)):
            features = [features]
        
        for _, layer in self.block.items():
            new_features = layer(features)
            features.append(new_features)


        return torch.cat(features, dim=1)

从残差块中,让我们构建 DenseNet。在这里,为了简单起见,我省略了 DenseNet 架构(充当下采样)的过渡层。

代码语言:javascript
复制
# a block consists of initial conv layers followed by 6 dense layers
dense_block = nn.Sequential(
    nn.Conv2d(3, 64, kernel_size=7, padding=3, stride=2, bias=False),
    nn.BatchNorm2d(64),
    nn.MaxPool2d(3, 2),
    Dense_Block(6, 64, growthrate=32, bn_size=4),
)


inputs = torch.rand(1, 3, 100, 100)
outputs = dense_block(inputs)
print(outputs.shape)    # shape would be (1, 256, 24, 24)


# one could also use pretrained weights of DenseNet trained on ImageNet
densenet121 = torchvision.models.densenet121(pretrained=True)

尾注

在本文中,我们讨论了跳跃连接对于训练深度神经网络的重要性,以及如何在 ResNet、DenseNet 和 U-Net 及其实现中使用跳跃连接。我知道,这篇文章涵盖了很多不容易一口气掌握的理论。因此,如果你有任何想法,请随时发表评论。

努力分享优质的计算机视觉相关内容,欢迎关注:

交流群

欢迎加入公众号读者群一起和同行交流,目前有美颜、三维视觉、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群

代码语言:javascript
复制
个人微信(如果没有备注不拉群!)请注明:地区+学校/企业+研究方向+昵称


下载1:何恺明顶会分享
在「AI算法与图像处理」公众号后台回复:何恺明,即可下载。总共有6份PDF,涉及 ResNet、Mask RCNN等经典工作的总结分析
下载2:终身受益的编程指南:Google编程风格指南
在「AI算法与图像处理」公众号后台回复:c++,即可下载。历经十年考验,最权威的编程规范!

下载3 CVPR2021
在「AI算法与图像处理」公众号后台回复:CVPR,即可下载1467篇CVPR 2020论文 和 CVPR 2021 最新论文
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-10-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI算法与图像处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 目录
  • 为什么要跳跃连接?
  • 什么是跳跃连接?
  • 跳跃连接的变体
    • 残差网络(ResNets)
      • 卷积网络 (DenseNets)
        • U-Net:用于生物医学图像分割的卷积网络
        • 跳跃连接的实现
        • ResNet – 残差块
        • DenseNet – 残差块
        • 尾注
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档