前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >LSTM神经网络之前向反向传播算法

LSTM神经网络之前向反向传播算法

作者头像
小一
发布2019-08-14 15:54:21
1.1K0
发布2019-08-14 15:54:21
举报
文章被收录于专栏:谓之小一谓之小一
上篇文章我们

1.从RNN到LSTM

RNN模型具有如下所示的结构,其中每个索引位置t都有一个隐藏状态h(t)。

为解决梯度消失的问题,大牛们针对RNN序列索引位置t的隐藏结构作出相应改进,进而提出LSTM模型。其中LSTM模型有多种形式,下面我们以最常见的LSTM模型为例进行讲解。

2.LSTM模型结构

除了细胞状态外,LSTM中还多了很多奇怪的结构,称之为门控结构(Gate)。针对每个序列索引位置t,门控结构一般包含遗忘门、输入门和输出门,下面来看看门控结构和细胞状态的结构。

2.1 LSTM之遗忘门

遗忘门(forget gate)是以一定的概率控制是否遗忘上一层的隐藏细胞状态,遗忘门的结构如下所示。

2.2 LSTM之输入门

输入门(input gate)负责处理当前序列位置的输入,输入门的结构如下所示。

2.3 LSTM之细胞状态更新

研究LSTM输出门之前,我们先看一下LSTM细胞状态的更新,其中遗忘门和输入门的结果都作用于细胞状态C(t)。

2.4 LSTM之输出门

有了新的隐藏细胞状态C(t),便可以来看输出门,其结构如下所示。

3.LSTM之前向传播算法

通过上面的介绍,已经能够得到LSTM前向传播算法主要包括更新遗忘门输出、更新输入门、更新细胞状态、更新输出门、更新当前序列索引预测输出,各传播过程如下所示。

4.LSTM之反向传播算法

了解前向传播算法流程之后,对于反向传播算法就非常简单了。我们采用和RNN相同的反向传播算法思路,即通过梯度下降法迭代更新所有的参数。

5.LSTM怎么解决梯度消失和梯度爆炸

6.LSTM总结

LSTM虽然复杂,但能够很好的解决梯度消失和梯度爆炸的问题,只要我们理清各部分之间的关系,进而理解前向和反向传播算法还是不难的。针对RNN和LSTM之中的梯度消失和梯度爆炸的描述,如果有相应错误,欢迎指出。

你看到的这篇文章来自于公众号「谓之小一」,欢迎关注我阅读更多文章。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-11-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 谓之小一 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.从RNN到LSTM
  • 2.LSTM模型结构
    • 2.1 LSTM之遗忘门
      • 2.2 LSTM之输入门
        • 2.3 LSTM之细胞状态更新
          • 2.4 LSTM之输出门
          • 3.LSTM之前向传播算法
          • 4.LSTM之反向传播算法
          • 5.LSTM怎么解决梯度消失和梯度爆炸
          • 6.LSTM总结
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档