腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
LSTM
层
间
的
激活函数
、
、
、
、
我知道
LSTM
单元内部同时使用sigmoid和tanh激活函数,但是当创建一个
堆叠
的
LSTM
体系结构时,通过激活函数(例如ReLU)传递它们
的
输出是否有意义?那么,我们是否更喜欢这样:model =
LSTM
(50, activation="relu
浏览 0
提问于2020-01-16
得票数 13
回答已采纳
1
回答
两个
堆叠
的
LSTM
层
之间
的
连接
是什么
?
、
、
、
、
问题类似于这个,但更多
的
是关于实现细节。为了简单起见,下面这样
的
4个单元和2个单元结构如何model.add(
LSTM
(2,input_shape=input_shape)) 所以我知道
LSTM
_1
的
输出是4个长度,但是接下来
的
2个单元如何处理这4个输入,它们是否完全
连接
到下一
层
节点?我猜它们是完全
浏览 33
提问于2020-05-17
得票数 1
回答已采纳
1
回答
放电筒中自定义
LSTM
的
辍学
、
、
我已经建立了一个定制
的
窥视孔
lstm
,我想模仿已经在nn.
lstm
中构建
的
辍学部分。那么,如何添加像这样
的
辍学,这个
lstm
,nn.
LSTM
(input_size, hidden_size, dropout=0.3),做什么?我对如何做到这一点有一个想法,就是在返回输出之前应用一个普通
的
退出,如下所示:self.dropout = nn.Dropout(0.3) # forward methodhidden_seq =
浏览 2
提问于2022-06-06
得票数 1
回答已采纳
1
回答
堆叠
LSTM
层
、
、
、
、
有人能告诉我那些
堆叠
的
LSTM
层
之间
的
区别吗?📷 第一图像在这个问题中给出,第二图像在这篇文章中给出。到目前为止,我所了解
的
关于
堆叠
LSTM
层
的
知识是基于第二张图像
的
。当您构建
LSTM
层
时,其中一个
层
(即h^{1}_{l}, l=..., t-1, t, t+1...)
的
输出成为其他
层
<
浏览 0
提问于2018-10-24
得票数 2
回答已采纳
1
回答
堆叠
的
lstm
或
堆叠
的
RNN是否需要跨
层
共享权重作为默认设置?
、
、
、
、
在深度学习文献中,我遇到了许多使用
堆叠
式RNN (
堆叠
式
LSTM
)网络
的
示例,虽然探索了单元本身
的
详细信息,但通常没有信息表明是否在
堆叠
式体系结构中
的
不同
层
之间
共享权重。我试图理解
的
是,当作者没有指定这一点时,默认行为
是什么
?我们是否应该假设它们已经在各层
之间
共享了权重?或者每一
层
都有自己
的
单元格权重集?
浏览 5
提问于2017-08-12
得票数 0
回答已采纳
1
回答
pytorch中num_layers =2
的
1个
LSTM
和2个
LSTM
的
差异
、
、
、
我是深度学习
的
新手,目前正在使用
LSTM
进行语言建模。我正在看pytorch文档,被它搞糊涂了。如果我创建一个当hidden_size =4和num_layers = 2时,我想我会有一个类似如下
的
架构:
LSTM
->
LSTM
-> h3
LSTM
->
LSTM<
浏览 9
提问于2018-03-12
得票数 18
回答已采纳
1
回答
LSTM
中
的
return_sequences
、
、
LSTM
的
架构‘下
的
https://www.analyticsvidhya.com/blog/2017/12/fundamentals-of-deep-learning-introduction-to-
lstm
浏览 61
提问于2021-01-10
得票数 1
回答已采纳
2
回答
lstm
(256) +
lstm
(256)与
lstm
(512)
的
区别
是什么
?
、
、
以下是代码model.add(
LSTM
(256, input_shape=(None, 1), return_sequences=True))model.add(Dense(1))model = Sequential() model.add(
LSTM
(512, input_s
浏览 62
提问于2019-07-29
得票数 2
1
回答
在Keras维度不匹配时
堆叠
两个
LSTM
层
、
、
、
、
我想用Keras做一个
LSTM
神经网络,它得到四个特征
的
一些长度作为输入,并预测10个以下值。我不能设法设置适当
的
输入尺寸。X_train是形状(34,5,4)
的
阵列(重复观察,观察序列,特征) y_train是形状(34,10)
的
阵列。我无法满足所需
的
尺寸。 你知道我做错了什么吗?X_train = X_train.reshape((X_train.shape[0], X_train.shape[1], 4)) model.add(
LSTM
(30, dropout=0
浏览 14
提问于2019-01-13
得票数 1
回答已采纳
1
回答
LSTM
中
的
NumHiddenUnits
、
当我们在matlab中创建
LSTM
层
时,我们将numHiddenUnits指定为layer = lstmLayer(numHiddenUnits)。我对此有
两个
问题。它是否表示
LSTM
单元
的
数量?如果是,那么这些单元是串行
连接
还是并行
连接
(它们
之间
没有相互作用)。 不幸
的
是,没有办法可视化(RNN)网络。我知道一个
LSTM
单元是如何工作
的
,但是我不知道下面的架构
是什么
样子
的
浏览 623
提问于2020-04-30
得票数 1
3
回答
堆叠
式
LSTM
的
优点?
、
、
、
我想知道在什么情况下
堆叠
LSTM
是有利
的
?
浏览 0
提问于2017-08-29
得票数 19
1
回答
N个时间序列馈送到N个
lstm
单元
的
一
层
,如何将
lstm
水平
连接
为一
层
?
、
、
、
、
它
的
网络结构如下所示timeseries2 ->
lstm
2timeseriesN -> lstmN 我见过许多
堆叠
lstm
层
的
示例,但没有人向我展示如何水平
连接
多个
lstm
单元。现在,我有一个包含4个时间序列列
的
浏览 0
提问于2020-11-20
得票数 1
1
回答
如果我在
LSTM
上面
堆叠
一个完全
连接
的
层
,那么
LSTM
的
长度如何变化呢?
、
、
、
我尝试构建一个长度可变
的
LSTM
。首先,我创建
LSTM
单元,然后
堆叠
一个具有2个输出节点
的
完全
连接
层
。代码如下: from tensorflow.keras.models import Sequentialimport numpy as np model
浏览 61
提问于2020-07-29
得票数 0
回答已采纳
1
回答
如何构建用于异常检测
的
简单
LSTM
模型
、
、
、
我想用PyTorch创建一个
LSTM
模型,用于异常检测,但在这样做
的
过程中,我在理解细节时遇到了问题。 self.hidden_dim = hidden_dim self.
lstm
= nn.
LSTM
(input_dim, hidden_dim, layer_dim, batch_firs
浏览 2
提问于2019-07-30
得票数 0
2
回答
堆叠
的
LSTM
网络中每个
LSTM
层
的
输入
是什么
?
、
、
、
假设我创建了一个
堆叠
的
LSTM
网络,如下所示:time_steps = 10input_shape = [time_steps, features=True))其中,我们
的
层叠
LSTM
网络由
两个
LSTM
层
组成,分别有64个和32个隐藏单元。]
的
向量,它将在当前时间步表示第一
浏览 8
提问于2019-03-27
得票数 3
1
回答
嵌入与
LSTM
和致密
层
的
连接
、
、
modelmodel.add(Embedding(vocab_size, 50, input_length=seq_length))model.add(
LSTM
(100))model.add(Dense(vocab_size, activation='softmax')) print(model.summ
浏览 0
提问于2019-10-10
得票数 0
1
回答
更多
的
年代还是更多
的
层次感?
、
如果一个人使用更多
的
时代或更多
的
层次,那么训练有什么不同呢?
LSTM
for epoch in range(5):我知道训练后会有不同在第一种情况下,您将通过一个经过训练
的
LSTM
单元发送任何测试批次,而在第二个案例中,它将通过4
浏览 3
提问于2017-12-18
得票数 0
回答已采纳
1
回答
关于Keras
的
LSTM
网络
的
几个问题
、
、
考虑到这种基于
LSTM
的
RNN:model = Sequential() model.add(
LSTM
(30, activation))是从密集
层
连接
到最终隐藏
层
( 10 *10 =100个
连接
浏览 4
提问于2020-07-30
得票数 0
1
回答
如何实现
LSTM
层
之间
的
跳过
连接
结构
、
、
、
、
最近我学习了ResNet
的
跳转
连接
,我发现这种网络结构在训练过程中会有很大
的
改进,它也适用于卷积网络,如U-net。但是,我不知道如何用
LSTM
自动编码网络实现类似的结构。我正在使用keras
的
方法来实现,但是我不断地得到错误。(Dense(1)))plot_model(model=model, show_shapes=True) 编码器
lstm
层
浏览 14
提问于2020-03-20
得票数 3
回答已采纳
1
回答
ValueError:
层
lstm
_1
的
输入0与
层
不兼容:需要
的
ndim=3,找到
的
ndim=2。收到
的
完整形状:(None,64)
、
、
、
我很难理解这个错误消息是关于什么
的
。我看过很多帖子,比如 ValueError: Input 0 of layer
lstm
_1 is incompatible with the layer: expected ndim我仍然想知道原因可能
是什么
,所以任何其他想法都会受到欢迎。
浏览 0
提问于2021-05-19
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券