首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人人都能看懂的LSTM

推荐阅读时间:8min~13min

推荐理由:这是在看了台大李宏毅教授的深度学习视频之后的一点总结和感想。看完介绍的第一部分RNN尤其LSTM的介绍之后,整个人醍醐灌顶。

1

0. 从RNN说起

循环神经网络(Recurrent Neural Network,RNN)是一种用于处理序列数据的神经网络。相比一般的神经网络来说,他能够处理序列变化的数据。比如某个单词的意思会因为上文提到的内容不同而有不同的含义,RNN就能够很好地解决这类问题。

2

普通RNN

先简单介绍一下一般的RNN。

其主要形式如下图所示(图片均来自台大李宏毅教授的PPT):

<img src="https://pic2.zhimg.com/v2-f716c816d46792b867a6815c278f11cb_b.jpg" data-caption="" data-size="normal" data-rawwidth="1094" data-rawheight="810" class="origin_image zh-lightbox-thumb" width="1094" data-original="https://pic2.zhimg.com/v2-f716c816d46792b867a6815c278f11cb_r.jpg" _src="https://pic2.zhimg.com/v2-f716c816d46792b867a6815c278f11cb_b.jpg"/>

通过序列形式的输入,我们能够得到如下形式的RNN。

3

LSTM

2.1 什么是LSTM

长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

LSTM结构(图右)和普通RNN的主要输入输出区别如下所示。

<img src="https://pic4.zhimg.com/v2-e4f9851cad426dfe4ab1c76209546827_b.jpg" data-caption="" data-size="normal" data-rawwidth="1075" data-rawheight="805" class="origin_image zh-lightbox-thumb" width="1075" data-original="https://pic4.zhimg.com/v2-e4f9851cad426dfe4ab1c76209546827_r.jpg" _src="https://pic4.zhimg.com/v2-e4f9851cad426dfe4ab1c76209546827_b.jpg"/>

2.2 深入LSTM结构

下面具体对LSTM的内部结构来进行剖析。

下面开始进一步介绍这四个状态在LSTM内部的使用。(敲黑板)

LSTM内部主要有三个阶段:

4

总结

以上,就是LSTM的内部结构。通过门控状态来控制传输状态,记住需要长时间记忆的,忘记不重要的信息;而不像普通的RNN那样只能够“呆萌”地仅有一种记忆叠加方式。对很多需要“长期记忆”的任务来说,尤其好用。

但也因为引入了很多内容,导致参数变多,也使得训练难度加大了很多。因此很多时候我们往往会使用效果和LSTM相当但参数更少的GRU来构建大训练量的模型。

对于GRU我会在以后的文章中进行介绍。

普通程序员转型深度学习指南推荐

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171222B00MVW00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券