今天,我加入了一个群,本来以为和正常的群一样,随意吹水。
讲了一下rnn,讲了一下lstm。结果,一位毕业两年的北大硕士研究生,突然蹦出来问我。lstm如何避免梯度爆炸。梯度消失。
所以,从基础的讲,rnn是怎么逐渐被lstm替代的。
在百度上rnn的解释是:
循环神经网络,Recurrent Neural Network。神经网络是一种节点定向连接成环的人工神经网络。这种网络的内部状态可以展示动态时序行为。不同于前馈神经网络的是,RNN可以利用它内部的记忆来处理任意时序的输入序列,这让它可以更容易处理如不分段的手写识别、语音识别等。
而lstm的解释是:
LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
那么语言是晦涩的,我们用图片去说明一下
上面的图是百度到的lstm的流程图。
那么对应的也会有rnn的流程图
言简意赅的去讲。
RNN与最大的不同之处就是在层之间的神经元之间也建立的权连接
领取专属 10元无门槛券
私享最新 技术干货