首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >lstm(256) + lstm(256)与lstm(512)的区别是什么?

lstm(256) + lstm(256)与lstm(512)的区别是什么?
EN

Stack Overflow用户
提问于 2019-07-29 07:18:12
回答 2查看 535关注 0票数 2

以下是代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
model = Sequential()
model.add(LSTM(256, input_shape=(None, 1), return_sequences=True))
model.add(LSTM(256, input_shape=(None, 1), return_sequences=True))
model.add(Dense(1))

这是lstm(256) + lstm(256)代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
model = Sequential()
model.add(LSTM(512, input_shape=(None, 1), return_sequences=True))
model.add(Dense(1))

这是lstm(512)代码

那么,lstm(256) + lstm(256)和lstm(512)有什么区别呢?

它是不是只是平行的,最后,它的意思是一样的?

或者,这两者之间的区别是什么?

EN

回答 2

Stack Overflow用户

发布于 2019-07-29 08:56:01

您正在演示的两个架构并不相同。

第一个模型有两个LSTM层,它们彼此堆叠在一起。第一个LSTM层接受单个输入参数并输出256个参数,第二个LSTM层具有256个输入参数,并且它返回与其输出相同的参数数量,因此最后一层的输入具有256个参数的宽度。

第二个模型有一个LSTM层,它接受一个输入参数并输出512个参数,这些参数作为最后一层的输入(而不是第一个模型中的256个)。

堆叠LSTM层使模型更深,并潜在地允许每个级别的隐藏状态在不同的时间尺度上操作。

如果您想了解有关堆叠LSTM层的更多信息,您将发现以下指向Jason Brownlee的帖子的链接非常有用:

Stacked Long Short-Term Memory Networks

票数 1
EN

Stack Overflow用户

发布于 2019-07-29 08:55:54

不,在第一种情况下,第一层的每个单元都与第二层的适当单元相互作用,而不是平行的。在第二种情况下,它只是LSTM的一层,以通常的方式工作。我希望这张图片能帮助你看清不同之处。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/57248847

复制
相关文章
LSTM和双向LSTM
参考连接:https://www.cnblogs.com/Allen-rg/p/11712703.html
全栈程序员站长
2022/07/04
1.5K0
LSTM和双向LSTM
lstm的keras实现_LSTM算法
LSTM 01:理解LSTM网络及训练方法 LSTM 02:如何为LSTMs准备数据 LSTM 03:如何使用Keras编写LSTMs LSTM 04:4种序列预测模型及Keras实现 LSTM 05:Keras实现多层LSTM进行序列预测 LSTM 06:如何用Keras开发CNN-LSTM LSTM 07:如何用Keras开发 Encoder-Decoder LSTM LSTM 08:超详细LSTM调参指南
全栈程序员站长
2022/10/02
2.3K0
lstm的keras实现_LSTM算法
RNN与LSTM
RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。
小小杨
2021/10/13
8120
LSTM
引入自循环的巧妙思想,以产生梯度长时间持续流动的路径是初始长短期记忆(long short-term memory,LSTM)模型的核心贡献。其中一个关键扩展是自循环的权重视上下文而定,而不是固定的。门控此自循环(由另一个隐藏单元控制)的权重,累积的时间尺度可以动态地改变。在这种情况下,即使是具有固定参数的LSTM,累积的时间尺度也可以因输入序列而改变,因为时间常数是模型本身的输出。LSTM在无约束手写识别、语音识别、手写生成、机器翻译、为图像生成标题和解析中成功应用。
2018/09/04
8180
LSTM
[MachineLearning][转载]LSTM
转载自http://blog.csdn.net/jerr__y/article/details/58598296
wOw
2018/09/18
8150
[MachineLearning][转载]LSTM
LSTM
Chris Olah's LSTM post Edwin Chen's LSTM post Andrej Karpathy's lecture on RNNs and LSTMs from CS231n
小飞侠xp
2018/10/10
3.5K2
LSTM模型详解_LSTM模型建立
1.长短期记忆模型(long-short term memory)是一种特殊的RNN模型,是为了解决RNN模型梯度弥散的问题而提出的;在传统的RNN中,训练算法使用的是BPTT,当时间比较长时,需要回传的残差会指数下降,导致网络权重更新缓慢,无法体现出RNN的长期记忆的效果,因此需要一个存储单元来存储记忆,因此LSTM模型被提出;
全栈程序员站长
2022/10/01
2.4K0
LSTM模型详解_LSTM模型建立
LSTM
长时间的短期记忆网络(Long Short-Term Memory Networks),很多地方翻译为长短期记忆网络,给人一种歧义,以为是网络一会儿能记很长的内容,一会儿能记很短的内容,但其实正确的翻译应该是长时间的短期记忆网络。它的本质就是能够记住很长时期内的信息
mathor
2020/02/14
8560
tensrflow lstm
tf.nn.rnn_cell.LSTMCell.__init__(num_units, input_size=None, use_peepholes=False, cell_clip=None, initializer=None, num_proj=None, num_unit_shards=1, num_proj_shards=1, forget_bias=1.0, state_is_tuple=False, activation=tanh) num_units: cell输出的维数(一个lstm的
ke1th
2019/05/28
5490
双向 LSTM
单向的 RNN,是根据前面的信息推出后面的,但有时候只看前面的词是不够的, 例如,
全栈程序员站长
2022/07/02
6580
双向 LSTM
LSTM模型搭建_LSTM神经网络
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
全栈程序员站长
2022/10/01
4850
ON-LSTM:能表示语言层次的LSTM
LSTM作为序列模型一直是自然语言处理的最佳选择之一,即使transformer出现了也依然无法撼动LSTM在NLP界的江湖地位。
beyondGuo
2019/07/07
1.3K0
LSTM入门
本文介绍了循环神经网络(RNNs)的简要历史和它们在自然语言处理等领域的应用。作者详细讨论了RNNs的变种,包括长短时记忆网络(LSTMs)和门控循环单元(GRUs),并介绍了这些变种在自然语言处理任务中的应用。此外,作者还讨论了RNNs的一些未来研究方向,包括注意力机制和Grid LSTMs。
GavinZhou
2018/01/02
9200
LSTM入门
LSTM Example
首先先复习一下LSTM的内部构造,上面这张图和我之前文章里不太一样,但其实本质上都是一样的,不必纠结
mathor
2020/02/15
7840
双向 LSTM
本文结构: 为什么用双向 LSTM 什么是双向 LSTM 例子 ---- 为什么用双向 LSTM? 单向的 RNN,是根据前面的信息推出后面的,但有时候只看前面的词是不够的, 例如, 我今天不舒服,我打算____一天。 只根据‘不舒服‘,可能推出我打算‘去医院‘,‘睡觉‘,‘请假‘等等,但如果加上后面的‘一天‘,能选择的范围就变小了,‘去医院‘这种就不能选了,而‘请假‘‘休息‘之类的被选择概率就会更大。 ---- 什么是双向 LSTM? 双向卷积神经网络的隐藏层要保存两个值, A 参与正向计算, A' 参
杨熹
2018/04/03
5.2K0
双向 LSTM
CNN,RNN,LSTM都是什么?
CNN 是一种前馈神经网络,通常由一个或多个卷积层(Convolutional Layer)和全连接层(Fully Connected Layer,对应经典的 NN)组成,此外也会包括池化层(Pooling Layer)。
叶锦鲤
2019/10/21
21.7K0
LSTM 08:超详细LSTM调参指南
LSTM 01:理解LSTM网络及训练方法 LSTM 02:如何为LSTM准备数据 LSTM 03:如何使用Keras编写LSTM LSTM 04:4种序列预测模型及Keras实现 LSTM 05:Keras实现多层LSTM进行序列预测 LSTM 06:Keras实现CNN-LSTM模型 LSTM 07:Keras实现Encoder-Decoder LSTM LSTM 08:超详细LSTM调参指南
全栈程序员站长
2022/09/09
7.1K0
LSTM 08:超详细LSTM调参指南
RNN & LSTM
所有的RNN均具有一种重复神经网络模块的链式形式,在标准的RNN中,通常重复模块是一个非常简单的结构,eg:只含有一个tanh层。
用户3636924
2018/12/03
1.2K0
RNN & LSTM
详解 LSTM
今天的内容有: LSTM 思路 LSTM 的前向计算 LSTM 的反向传播 关于调参 ---- LSTM 长短时记忆网络(Long Short Term Memory Network, LSTM),是
杨熹
2018/04/03
1.7K0
详解 LSTM
LSTM & GRU的基本原理与区别
RNN在构建实际应用程序如语言翻译、文本分类和更多的序列化问题方面常见,but在处理大型序列时存在梯度消失和梯度爆炸等问题。
Cyril-KI
2022/09/16
7150
LSTM & GRU的基本原理与区别

相似问题

LSTM(512)与LSTMCELL(512)的差异

111

Keras: LSTM dropout和LSTM recurrent的区别

20

双向LSTM和LSTM有什么区别?

511

使用星火与LSTM

113

GridSearchCV/RandomizedSearchCV与LSTM

12
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文