腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
打印
指标
RNN
python
、
machine-learning
、
keras
我想知道是否可以
打印
RNN
的度量,verbose只显示了一个简化的数字,例如"0.0014“,但我想
打印
完整的最终值。我想
打印
指标
(Mse)的最终值# creating model using Kerasmodel10.add(GRU(units
浏览 13
提问于2020-03-12
得票数 1
回答已采纳
1
回答
CudnnLSTM训练与常规LSTMCell训练效果的比较
python
、
tensorflow
我正在用Python中的Tensorflow训练一个LSTM网络,并希望切换到tf.contrib.cudnn_
rnn
.CudnnLSTM以获得更快的培训。, tf.float32)使用lstm = tf.contrib.cudnn_
rnn
.CudnnLSTM(1, self.num_hidden)
rnn
_outputs, _ = ls
浏览 1
提问于2019-02-06
得票数 8
回答已采纳
1
回答
有没有可能用keras做更长的输出长度?
keras
、
forecasting
、
rnn
我想预测一些与空间天气相关的
指标
(kp,Dst等)。使用
RNN
或LSTM。建立多对一模型是可能的,尽管它显示出较低的准确性。然而,我的目标是通过过去3天的观察来预测未来的7天。问题是,是否有可能在功能上构建具有更长输出长度(或时间步长)的
RNN
?而不是输入? 任何帮助都将不胜感激!请帮帮我。
浏览 13
提问于2018-08-16
得票数 1
回答已采纳
1
回答
Tensorflow stack_bidirectional_dynamic_
rnn
的维数问题
python
、
tensorflow
、
deep-learning
、
seq2seq
decoder_inputs) # Construct forward and backward cells backward_cell = tf.nn.
rnn
_cell.BasicLSTMCell(num_units) encoder_outputs, encoder_states_fw, encoder_states_bw = tf.contrib.
rnn
.stac
浏览 2
提问于2018-06-16
得票数 1
回答已采纳
1
回答
关于在pytorch中使用
RNN
python
、
pytorch
=1): self.
rnn
= nn.
RNN
(input_size, hidden_size, num_layers) return self.reg(x[:,2]) criterion = nn.CrossEntropyLoss() print("1&q
浏览 14
提问于2020-04-17
得票数 0
1
回答
对如何在tensorflow中实现附加的LSTM
RNN
结构有什么想法吗?
python
、
tensorflow
、
deep-learning
、
lstm
、
recurrent-neural-network
代码以下列方式使用BasicLSTMCell和tf.contrib.
rnn
.BasicLSTMCell: outputs, states = tf.contrib.
rnn
.static_
rnn
(lstm_cell, x, dtype=tf.float32,sequence_length=seqlen) 我
打印
了“状态”(和输出),并期望“状态”有输入序列的形状数,其中x是每个输入序列的长度
浏览 0
提问于2018-09-10
得票数 0
1
回答
如果单元格是多层的,那么在tf.contrib.
rnn
.static_
rnn
中返回的状态意味着什么?
tensorflow
、
deep-learning
我的代码是:outputs, state = tf.contrib.
rnn
.static_
rnn
(cell, inputs)(<tf.Tensor 'loss/model_with_buckets/left_
rnn
/multi_
rnn
_cell_2/cell_0/GRUBloc
浏览 0
提问于2017-08-03
得票数 1
1
回答
输入tf.keras.layers.GRU时出现问题
tensorflow
、
keras
、
neural-network
、
tensorflow2.0
、
keras-layer
/home/lemmatizer_noattn.py:79 step * outputs, [states] = self.lemmatizer.target_
rnn
_cell
浏览 43
提问于2020-05-08
得票数 0
回答已采纳
3
回答
理解
rnn
.BasicLSTMCell返回的状态的维度
python
、
tensorflow
、
deep-learning
、
lstm
、
recurrent-neural-network
以下是
RNN
模型:chunk_size = 28
rnn
_size = 128 outputs, states =
rnn
.static_
rnn
(lstm_cell, x, dtype=tf.float32)tf.matmul(outputs[-1],layer['weights']) + laye
浏览 5
提问于2017-06-27
得票数 0
回答已采纳
1
回答
使用单热代码的Tensorflow混淆矩阵
tensorflow
、
confusion-matrix
、
multiclass-classification
、
one-hot-encoding
我使用
RNN
进行多类分类,下面是我的
RNN
主要代码: x = tf.unstack(x, input_size, 1) stacked_lstm =
rnn
.MultiRNNCell([lstm_cell]*lstm_size, state_is_tuple=True)
浏览 0
提问于2017-10-18
得票数 8
1
回答
基于CuDnnGRU的神经网络在Tensorflow中的实现实例
tensorflow
、
rnn
我使用以下代码: lstm_cell_fwd =tf.contrib.
rnn
.GRUCell(hidden_dim,kernel_initializerlstm_cell_fwd, output_keep_prob=dropout) with tf.variab
浏览 1
提问于2018-03-08
得票数 6
回答已采纳
1
回答
不能用MultiRNNCell和dynamic_
rnn
堆栈LSTM
tensorflow
、
lstm
、
multi-layer
我想使用以下代码将他的模型扩展到多层LSTM模型:cell = tf.contrib.
rnn
.MultiRNNCell([cell] * num_layers,state_is_tuple=True) 但我说错了: '
rnn
/
浏览 3
提问于2017-11-18
得票数 7
回答已采纳
1
回答
使用tf.trainable_variables()显示可训练变量的名称
tensorflow
] var_names.append(var.name)cell_fn = tf.nn.
rnn
_cell.GRUCell
rnn
_fw_1 = tf.nn.
rnn
_cell.Dr
浏览 3
提问于2017-01-31
得票数 6
1
回答
理解PyTorch的
RNN
实现
deep-learning
、
pytorch
、
recurrent-neural-network
、
implementation
我想参考施密特的这篇论文,其中
RNN
通常被描述为:。因此,根据Eq。(1)和(2)在本文中,我们需要三个权重矩阵W_hh,W_xh和W_ho。但是,在
打印
简单
RNN
的参数数量时,我看不到矩阵W_ho,这是我不理解的(矩阵W_xh在
打印
输出中称为W_ih ):如果能帮上忙,我们将不胜感激!
浏览 6
提问于2021-07-03
得票数 0
1
回答
LSTM的参数计算
tensorflow
、
deep-learning
、
lstm
d_out]) # [batch, timestep, dim_out] batch_size, seq_len, dim_in = myinput.shape c1 = tf.nn.
rnn
_cell.LSTMCell(h1)c2 = tf.nn.
rnn
_cell.LSTMCell(h1) multi_
r
浏览 1
提问于2019-07-24
得票数 1
回答已采纳
1
回答
如何在TensorFlow中重用
RNN
python
、
tensorflow
、
recurrent-neural-network
我要训练一个
RNN
模型,用该模型得到三个不同输入的隐向量,并利用这些隐向量计算损失函数。我尝试用reuse=None在变量范围内编写代码,例如:gru_cell = tf.nn.
rnn
_cell.DropoutWrapper_states_1 =
rnn
_states_1[config.num_layers-1]
浏览 4
提问于2016-11-17
得票数 5
1
回答
如何将正则化应用于Tensorflow中的LSTM?
python
、
tensorflow
我的问题是,我不能
打印
任何。我不知道图形变量的名称,但我无法
打印
它们,因为模型不会生成,因为我不知道要输入给tf.nn.l2_loss()的变量的名称。请具体点..。以下是所需的最小模型。因为我是Tensorflow的新手,它可能并不是最小的,也不是有效的。/multi_
rnn
_cell/cell_0/lstm_cell/biases/Adam', '
浏览 1
提问于2017-05-11
得票数 2
1
回答
为什么
rnn
和dynamic_
rnn
的结果在tensorflow中表现出不修正性?
tensorflow
import numpy as npfrom tensorflow.python.ops import
rnn
,
rnn
_cell x = tf.reshape(x0, [-1, 5]) with tf.variable_
浏览 4
提问于2016-10-05
得票数 0
回答已采纳
1
回答
tf.nn.static_
rnn
给出了与输入不同的输出大小
python
、
tensorflow
、
lstm
、
recurrent-neural-network
state_series [<tf.Tensor '
rnn
/
rnn
/basic_lstm_cell/mul_2:0' shape=(2, 4) dtype=float32>, <tf.Tensor '
rnn
/
rnn
/basic_lstm_cell/mul_5:0' shape=(2, 4) dtype=float32>, <tf.Tensor '
rnn
/<e
浏览 1
提问于2017-12-31
得票数 0
2
回答
Keras -检查模型目标时的错误:预期没有数据,但得到:‘数据
python
、
keras
、
lstm
我的模型和数据如下: In = Input(shape=(input_shape[1], 1))y = np.random.rand(100, 1)
rnn
.fit(X, y, epochs=10) 当我第一次运行
浏览 2
提问于2020-06-30
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券