腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
keras
GRU
层
中
的
返回
状态
和
返回
序
列有
什么
不同
?
、
、
、
、
我似乎无法理解
keras
GRU
层
中
返回
状态
和
返回
序列之间
的
区别。 由于
GRU
单元没有单元
状态
(它等于输出),那么
返回
状态
与
keras
GRU
层
中
的
返回
序
列有
什么
不同
呢?更具体地说,我构建了一个具有一个编
浏览 34
提问于2019-02-26
得票数 8
1
回答
在GPU上训练RNN -我应该使用哪个tf.
keras
层
?
、
、
、
我正在训练RNN,这是我使用tf.
keras
.layers.
GRU
层
构建
的
。他们需要很长时间来训练(>2个小时),所以我将把他们部署到GPU进行训练。我想知道一些关于GPU训练
的
事情: tf.
keras
.layers.CuDNNGRU
和
tf.
keras
.layers.
GRU
(以及tf.
keras
.layers.LSTM
和
tf.
keras
.layers.CuDNNLSTM
浏览 1
提问于2019-08-05
得票数 1
回答已采纳
2
回答
在
keras
的
LSTMs中使用隐藏
状态
而不是输出
、
、
、
、
我找到了一个使用这个注意机制
的
定制
层
的
工作实现。()(my_lstm)我想使用LSTM
的
隐藏
状态
:out = Dense(2, activation='softmax')(my_lstm)
浏览 3
提问于2017-08-11
得票数 7
回答已采纳
1
回答
快速建立库存预测
的
GRU
模型
、
、
、
、
我是RNNs
的
初学者,并希望建立一个运行模型门控递归单元
GRU
股票预测。对于具有此形状
的
训练数据,我有一个numpy数组:(1122,20,320) 我
的
train_y.shape是(1122 ),用1
和
0表示二进制变量。考虑到这一点,我开始尝试我
的
GRU</
浏览 7
提问于2021-11-17
得票数 0
回答已采纳
2
回答
在纯TensorFlow中使用有
状态
Keras
模型
、
、
我有一个有
状态
的
RNN模型,有几个
GRU
层
是在
Keras
中
创建
的
。 现在我必须从Java运行这个模型,所以我将模型作为protobuf,并从加载它。这个模型必须是有
状态
的
,因为功能将在一个时间内提供一个时间步骤.据我所知,为了在TensorFlow模型
中
实现
状态
,每次执行会话运行程序时,我都必须以某种方式在最后一个
状态
中提供信息,而且运行将在执行后
返回
状态
浏览 3
提问于2017-12-14
得票数 1
回答已采纳
1
回答
将嵌入
层
与
GRU
一起使用
、
、
、
我有一个使用
GRU
手动将输入创建为3D数组
的
工作代码(None,10,64)。(Dropout(0.8)) model.add(Activation("linear")) 这将
返回
给定输入窗口
的
预测嵌入现在我想在
GRU
之上使用
keras
嵌入
层
。我
的
想法是输入一个二维数组(None,10),并使用嵌入
层
将每个样本转换为相应
浏览 22
提问于2019-01-23
得票数 0
回答已采纳
1
回答
如何使用seq2seq为tf2构建自定义双向编码器?
、
、
、
class Encoder(tf.
keras
.Model): self.
gru
= tf.
keras
.layers.
GRU
(self.enc_units,(tf.
keras
.layers.
GRU
(self.enc_units,(x) output, state = self.big
浏览 6
提问于2019-11-24
得票数 2
回答已采纳
2
回答
自定义Tensorflow模型(自回归seq2seq多元时间序列
GRU
/RNN)
、
、
、
、
我正在尝试实现一个自回归
的
seq2-seqrnn来预测时间序列数据,。该模型由一个从tf.
keras
.Model继承
的
自定义模型类组成,代码如下所示。我已经使用这个模型作为输入数据a (15,108)数据集(尺寸:(序列长度,输入单元))
和
输出数据a (10,108)数据集
的
时间序列预测。尽管培训是成功
的
,但I没有成功地保存
和
重新加载该模型,以便在测试集上评估以前培训过
的
模型。我尝试在互联网上寻找解决方案,但到目前为止,它们似乎都没有起作用。但是,只<
浏览 27
提问于2021-02-09
得票数 2
回答已采纳
1
回答
输入0与
层
gru
_13不兼容:预期
的
ndim=3,找到ndim=2
我想将3CNN与3
GRU
层
结合使用。layer_a, layer_b,layer_c], outputs=[layer_f])但是当我试图融入我
的
数据时,它会产生一个错误: 输入0与
层
gru
_14不兼容:预期
的
ndim=3,找到ndim=2。
浏览 1
提问于2018-04-03
得票数 2
回答已采纳
1
回答
对
keras
.layers.RNN
中
时间步长
和
输出形状概念
的
困惑
、
剩下
的
张量是最后
的
状态
,每个
状态
都有形状(batch_size,单位)。1.输出
gru
1
和
gru
_1b'#sequence_output = K.expand_dims(sequence_output,3)‘ '#fusion_o
浏览 1
提问于2018-10-31
得票数 0
回答已采纳
1
回答
PyTorch
GRU
返回
中隐藏
状态
层
的
顺序
、
、
、
、
这就是我要看
的
API, 对于具有多个
层
的
GRU
,我想知道如何获取最后一个
层
的
隐藏
状态
,是h_n[0]还是h_n[-1]?如果是双向
的
,如何进行切片以获得GRUs在两个方向上
的</em
浏览 0
提问于2019-01-17
得票数 8
1
回答
编解码器LSTMCell/RNN网络
的
输入
、
、
、
、
我正在使用
Keras
创建一个LSTM编解码器网络,遵循这里提供
的
代码:https://github.com/LukeTonin/
keras
-seq-2-seq-signal-prediction。我所做
的
唯一更改是用LSTMCell替换了GRUCell。基本上,编码器和解码器都由两
层
组成,35 LSTMCells。这些
层
使用RNN
层
彼此堆叠(
和
组合)。LSTMCell
返回
2个
状态</em
浏览 39
提问于2019-04-06
得票数 2
1
回答
Tensorflow text_generation教程中有
状态
GRU
的
误导性训练数据洗牌
、
、
、
我正在研究Tensorflow text_generation教程(),并想知道他们为
什么
要洗牌训练数据,尽管
GRU
的
有
状态
设置是真的?这与文档()相矛盾:“关于在RNN中使用
状态
性
的
注意事项:您可以将RNN
层
设置为‘有
状态
的
’,这意味着为一个批
中
的
样本计算
的
状态
将被重用为下一批
中
的
样本
的
初始
状态</e
浏览 3
提问于2020-03-30
得票数 3
1
回答
访问
keras
模型
中
输入
层
的
元素
、
、
、
、
我正在尝试编译
和
训练一个RNN模型,以便使用进行回归。我使用"Functional“方法来定义我
的
模型。我要做
的
是将
GRU
浏览 11
提问于2022-06-09
得票数 1
回答已采纳
1
回答
keras
:未启用急切执行时,张量对象不可迭代
、
、
、
、
我正在用
Keras
编写一个序列到序列模型。由于某些原因,当我尝试在下面的函数
中
定义模型时: output_dim,) l2_decoder_
gru
=
GRU
(n_units,l1_decode
浏览 18
提问于2018-09-08
得票数 1
回答已采纳
1
回答
如何在
Keras
LSTM
中
获得多个timestep
的
一个输出?
、
、
我想对数据
的
时间范围进行分类。例如,每5个输入,就有一个输出。但是我
的
代码拒绝接受我
的
输出。model = Sequential()model.add(
GRU
(64, activation='relu', return_sequences=True)) mode
浏览 20
提问于2019-07-08
得票数 0
回答已采纳
2
回答
TimeDistributed(稠密)与
Keras
中
的
稠密-相同
的
参数数
、
、
、
、
我正在构建一个使用递归
层
(GRUs)将字符串转换为另一个字符串
的
模型。我尝试过使用密集
层
和
TimeDistributed(密集
层
)作为最后一
层
,但我不理解两者在使用return_sequences=True时
的
区别,特别是因为它们似乎具有相同数量
的
参数。但是,如果切换到一个简单
的
密集
层
:x
浏览 4
提问于2017-06-18
得票数 36
回答已采纳
1
回答
如何将新
的
向量输入到递归
和
卷积角点模型中进行实时/流/实时推理?
、
、
、
我成功地训练了一个
Keras
/TensorFlow模型,该模型由
层
SimpleRNN、→、Conv1D、→、
GRU
、→密度
层
组成。在这种情况下,我假设循环
层
中
的
状态
流不起作用,每一次给出最后k个特征向量,其中k=9是CNN
的
内核长度。我认为这是可行
的
,但是引入了我希望避免
的
不必要
的
延迟。如果没有,我是否可以使用
层
参数,或者在SimpleRNN
层<
浏览 8
提问于2022-07-12
得票数 0
1
回答
如何设置
keras
.layers.RNN实例
的
初始
状态
?
、
、
、
、
我使用下面的循环创建了一个堆叠
的
keras
解码器模型: # Create the encoderencoder_inputs =
keras
.layers.Input因此,解码器所组成
的
RNN
层
是一个堆叠
的
GRU
,其中第一个
GRU
包含48个神经元,第二个包含58个神经元。我想设置第一个
GRU
的
初始
状态
。我通过一个密集
的
<em
浏览 32
提问于2019-02-07
得票数 6
2
回答
巴丹诺-隆关注如何使用查询、值、关键向量?
、
、
、
、
在最新
的
TensorFlow 2.1
中
,tensorflow.
keras
.layers子模块包含AdditiveAttention()
和
Attention()
层
,分别实现了Bahdanau
和
Luong
的
关注点(docs 这里
和
这里.) 这些新类型
的
层
需要query、value
和
key输入(但最新
的
是可选
的
)。但是,查询、值、关键向量是我经常读到
的
浏览 0
提问于2020-03-03
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券