卷积神经网络与长短轴时间序列模型

今天,我加入了一个群,本来以为和正常的群一样,随意吹水。

讲了一下rnn,讲了一下lstm。结果,一位毕业两年的北大硕士研究生,突然蹦出来问我。lstm如何避免梯度爆炸。梯度消失。

所以,从基础的讲,rnn是怎么逐渐被lstm替代的。

在百度上rnn的解释是:

循环神经网络,Recurrent Neural Network。神经网络是一种节点定向连接成环的人工神经网络。这种网络的内部状态可以展示动态时序行为。不同于前馈神经网络的是,RNN可以利用它内部的记忆来处理任意时序的输入序列,这让它可以更容易处理如不分段的手写识别、语音识别等。

而lstm的解释是:

LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。

那么语言是晦涩的,我们用图片去说明一下

上面的图是百度到的lstm的流程图。

那么对应的也会有rnn的流程图

言简意赅的去讲。

RNN与最大的不同之处就是在层之间的神经元之间也建立的权连接

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180713G126WZ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券