首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

深度学习模型经典架构(下)

以下文章来源于又土又木的园丁,作者传道授业的

上一文介绍了6种深度学习经典架构,这一篇继续介绍剩下的几种。

(7)MixNet

计算机视觉领域的一种新型高效模型,MixNet是Google Research在2019年提出的一种高效卷积神经网络架构,旨在结合EfficientNet和Inception的思想,通过多尺度特征融合进一步提升网络性能。MixNet的核心创新是引入了多尺度特征混合(Multi-Scale Feature Mixing)机制,能够在不显著增加计算量的情况下,增强网络对不同尺度特征的捕捉能力。

传统的卷积神经网络(如ResNet、Inception)通常通过固定尺度的卷积核(如 3×3、5×5)提取特征,但现实世界中的物体可能存在多种尺度。MixNet 通过引入多分支卷积多尺度特征融合,让网络能够同时处理不同尺度的特征,从而提升对复杂场景的适应性。

1)     MixNet 的关键设计

多尺度卷积分支(Multi-Scale Convolution Branches)

MixNet 的每个模块包含多个分支,每个分支使用不同尺度的卷积核(如 3×3、5×5、7×7 等),分别提取不同尺度的特征。这些分支的输出通过通道注意力机制(Channel Attention Mechanism)进行加权融合,从而动态地选择最重要的特征。

通道注意力机制(Channel Attention Mechanism)

每个多尺度卷积分支的输出会通过一个轻量级的通道注意力模块,计算每个分支的权重。具体来说,通过全局平均池化(GAP)对每个分支的输出进行压缩,然后通过全连接层生成权重,最后将加权后的特征融合在一起。

深度可分离卷积(Depthwise Separable Convolution)

为了降低计算量,MixNet 在部分分支中使用了深度可分离卷积(如 Mobile Inverted Bottleneck Convolution, MBConv),在保持性能的同时减少参数数量。

残差连接(Residual Connection)

MixNet 的模块之间通过残差连接实现信息流动,缓解梯度消失问题,同时促进多尺度特征的融合。

2) MixNet 的架构:

由多个Mixed Layer组成,每个Mixed Layer包含以下步骤:

多尺度卷积分支:使用不同尺度的卷积核(如 3×3、5×5、7×7)提取特征。

通道注意力机制:对每个分支的输出进行加权。

特征融合:将加权后的特征按通道维度拼接或相加。

残差连接:将融合后的特征与输入特征相加,形成残差连接。

3) MixNet 的优势

多尺度特征融合:通过多分支卷积和通道注意力机制,网络能够同时捕捉不同尺度的特征,提升对复杂场景的适应性。

高效性:通过深度可分离卷积和轻量级注意力机制,MixNet 在保持高性能的同时,显著降低了计算量和参数数量。

灵活性:MixNet 的架构可以很容易地扩展到不同的任务(如图像分类、目标检测、语义分割)和硬件平台(如移动设备、边缘计算)。

性能提升:在 ImageNet 等基准数据集上,MixNet 的性能优于 EfficientNet 和 Inception 等经典模型。

4) MixNet 的改进版本

MixNet++:在MixNet的基础上进一步优化了多尺度特征融合机制,提升了性能和效率。

MixVision:将MixNet的思想应用于视觉Transformer(Vision Transformer, ViT),结合了CNN和Transformer的优势。

(8)生成对抗网络(Generative Adversarial Network,GAN)

GAN是由Ian Goodfellow在2014年提出的一种深度学习模型,通过生成器(Generator)判别器(Discriminator之间的对抗训练,实现数据生成或分布逼近的目标。GAN的核心思想是博弈论,通过生成器和判别器的“对抗”来提升彼此的性能。广泛应用于图像、视频、音频生成,是生成模型的重要研究方向。

1)GAN的基本结构:

由两个主要组件组成:

1.生成器(Generator, G)

输入:随机噪声向量(通常从高斯分布或均匀分布中采样)。

功能:将噪声向量转换为接近真实数据的伪造样本(如图像、文本等)。

目标:生成越来越逼真的伪造样本,以欺骗判别器。

2.判别器(Discriminator, D)

输入:真实数据样本或生成器生成的伪造样本。

功能:判断输入样本是真实的(来自真实数据)还是伪造的(来自生成器)。

目标:准确区分真实样本和伪造样本。

2)GAN 的目标函数:

GAN的训练目标是最小化以下损失函数:

其中:D(x) 是判别器对真实样本x 的置信度(接近 1); D(G(z)) 是判别器对生成样本G(z)的置信度(接近 0);V(D, G) 是生成器和判别器的博弈价值函数。

3)GAN 的优势:

无需标注数据:GAN 只需要真实数据,不需要标签,适合无监督学习任务(如数据生成)。

强大的生成能力:GAN 可以生成高质量的样本(如图像、音频、文本等),接近真实数据分布。

灵活性:GAN 可以应用于多种任务,如图像修复、风格迁移、超分辨率重建等。

4)GAN 的挑战:

训练不稳定:生成器和判别器的对抗训练可能导致梯度消失或模式崩溃(Mode Collapse)。

评估困难:生成样本的质量难以量化,通常需要人工评估或引入其他指标(如 Inception Score, FID)。

计算资源消耗大:GAN 需要大量计算资源进行训练,尤其是高分辨率图像生成任务。

5)GAN 的改进与变体:

DCGAN(Deep Convolutional GAN):使用卷积层代替全连接层,提升图像生成质量;引入批量归一化(Batch Normalization)稳定训练。

WGAN(Wasserstein GAN):使用Wasserstein距离代替Jensen-Shannon散度,解决梯度消失问题;限制判别器的参数范围,避免梯度惩罚。

LSGAN(Least Squares GAN):使用最小二乘损失函数,缓解梯度消失问题。

CycleGAN:用于无监督域自适应,通过循环一致性损失实现不同域之间的转换(如马到斑马)。

StyleGAN:引入风格向量(Style Vector),实现对生成图像风格的精细控制,生成高质量图像。

归结起来:

6)GAN的应用:

数据生成:生成逼真的图像、音频、文本等数据。

图像修复:修复损坏的图像或视频。

风格迁移:将一种图像的风格迁移到另一种图像(如将油画风格应用到照片)。

超分辨率重建:将低分辨率图像转换为高分辨率图像。

域自适应:将数据从一个域迁移到另一个域(如将合成数据转换为真实数据)。

(9)Transformer

深度学习的革命性架构,由Google Brain团队(Vaswani等)在2017年论文《Attention Is All You Need》中提出的革命性神经网络架构。它完全依赖自注意力机制(Self-Attention),摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),在效率和性能上实现了显著提升。在自然语言处理(NLP)、计算机视觉(CV)等领域取得了突破性进展。

Transformer的核心是自注意力机制,它允许模型在处理序列数据时,动态地关注输入序列中不同位置的信息。与传统RNN相比,自注意力机制具有以下优势:并行计算长距离依赖灵活性可扩展性。

1)Transformer的架构

Transformer由编码器(Encoder)和解码器(Decoder)两部分组成(但可以单独使用,如 BERT仅用编码器,GPT仅用解码器),每部分都基于自注意力机制和前馈神经网络(Feed-Forward Neural Network, FFN)构建。

1.编码器(Encoder)

编码器的作用是将输入序列(如文本)转换为一个固定长度的上下文表示。编码器由多个相同的层堆叠而成,每一层包含以下组件:

多头自注意力机制(Multi-Head Self-Attention):将输入序列的不同部分映射到多个子空间(头),并计算每个头的注意力权重。

残差连接和层归一化(Residual Connection & Layer Normalization):将输入直接加到输出上,并进行归一化,以加速训练并稳定网络。

前馈神经网络(FFN):一个两层的全连接网络,用于进一步处理特征。

2.解码器(Decoder)

解码器的作用是根据编码器的输出和已生成的序列,逐步生成目标序列(如翻译结果)。解码器也由多个相同的层堆叠而成,每一层包含以下组件:

多头自注意力机制(Multi-Head Self-Attention):与编码器类似,但只关注已生成的序列部分。

编码器-解码器注意力机制(Encoder-Decoder Attention):将解码器的当前状态与编码器的输出进行交互,以捕捉输入序列和输出序列之间的关系。

残差连接和层归一化:与编码器相同。

前馈神经网络(FFN):与编码器相同。

3.位置编码(Positional Encoding)

由于自注意力机制本身不包含序列顺序信息,Transformer引入了位置编码,将序列中每个元素的位置信息注入到输入中。位置编码通常是一个固定的矩阵,与输入嵌入相加,使得模型能够区分不同位置的元素。

2)Transformer的应用:

Transformer在NLP领域取得了巨大成功,以下是一些经典应用:

机器翻译:Google的Neural Machine Translation(NMT)系统基于Transformer。

文本生成:如GPT(Generative Pre-trained Transformer)系列模型,用于生成自然语言文本。

问答系统:如BERT(Bidirectional Encoder Representations from      Transformers),用于理解问题和生成答案。

多模态任务:如ViT(Vision Transformer),将Transformer应用于图像分类任务。

3)Transformer的变体:

BERT((双向编码器,2018):通过双向编码器预训练模型,提升了文本理解能力。

GPT(单向解码器,2018-2023:基于Transformer的生成式预训练模型,用于文本生成。

T5(编码器-解码器,2019:将所有NLP任务统一为文本到文本的转换任务。

ViT(2020,将图像分块处理:将Transformer应用于图像分类任务,取代传统的CNN。

DeBERTa:通过改进注意力机制和预训练策略,进一步提升了模型性能。

4)局限性及改进方向:

(10)LSTM(Long Short-Term Memory)

LSTM是一种特殊的循环神经网络(RNN),由 Hochreiter & Schmidhuber 于 1997 年提出,旨在解决传统 RNN 的长期依赖问题(如梯度消失/爆炸)。它通过引入门控机制和记忆单元,显著提升了模型对长序列数据的记忆能力,广泛应用于自然语言处理、时间序列预测、语音识别、视频分析等领域。

与传统RNN相比,LSTM增加了三个门控单元:输入门(Input Gate):决定当前输入有多少信息可以写入记忆单元。遗忘门(Forget Gate):决定历史记忆单元中有多少信息可以被遗忘。输出门(Output Gate):决定记忆单元中的信息如何输出到当前状态。

1)LSTM的结构

LSTM的核心是一个记忆单元(Cell),它通过三个门控单元和激活函数来更新和传递信息。具体结构如下:

(1)遗忘门(Forget Gate):决定历史记忆单元中有多少信息需要被遗忘。

(2)输入门(Input Gate):决定当前输入有多少信息可以写入记忆单元。(3)候选记忆单元(Candidate Cell State):生成当前时间步的候选记忆单元值。(4)更新记忆单元(Cell State):结合遗忘门和输入门,更新记忆单元的值。(5)输出门(Output Gate):决定记忆单元中的信息如何输出到当前状态。(6)隐藏状态(Hidden State):基于记忆单元和输出门生成当前时间步的隐藏状态。

LSTM 的每个时间步包含以下计算步骤:

2)LSTM的优势:

解决长期依赖问题:通过记忆单元和门控机制,LSTM能够保留长期依赖的信息,避免梯度消失和爆炸。

灵活控制信息流动:输入门、遗忘门和输出门分别控制信息的写入、遗忘和输出,使得网络可以动态调整记忆。

缓解梯度问题:记忆单元的线性更新方式(无激活函数)减少了梯度消失的风险。

3)LSTM的变体:

GRU(Gated Recurrent Unit):简化了LSTM的结构,将遗忘门和输入门合并为一个更新门,减少了参数数量。

Peephole LSTM:在门控单元中引入记忆单元的值,增强了对历史信息的利用。

双向LSTM(Bidirectional LSTM):同时考虑序列的前向和后向信息,适用于需要上下文感知的任务(如命名实体识别)。

这些深度学习的经典架构通常都是为了解决特定类型的任务或克服当时面临的核心技术挑战而诞生的。它们是AI 发展史上的里程碑,解决了神经网络应用中的核心问题,突破了性能瓶颈,提供了可复用的强大组件和设计范式;极大降低应用和研究的门槛,促进了迁移学习; 推动了软硬件生态发展,加速了 AI 技术在各个领域的实际应用落地。它们不仅是技术的结晶,更是推动整个领域向前发展的引擎和基石。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OU2aOoSav83VbHD83JESYOBg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券