腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
tf.nn.dynamic_rnn()在Google中使用时返回错误
tensorflow
、
google-cloud-datalab
同一网络在我
的
计算机上正确运行,但当我在Datalab上运行它时,我得到以下错误:
dynamic_rnn
()
的
用法如下:rnn_outputs,state =tf.nn.dynamic_rnn(单元,输入,initial_state = initial_state_placeholder) 这是
tensorflow
版本
的
问题吗在我
的
计算机上,我使用
浏览 5
提问于2016-07-28
得票数 1
回答已采纳
1
回答
tensorflow
中
dynamic_rnn
函数
的
参数
中
的
TypeError
tensorflow
、
rnn
initial_state= init_state) ses.run(tf.global_variables_initializer())
TypeError
Traceback (most recent call last)
TypeError
: 'Tensor' object is no
浏览 6
提问于2017-08-28
得票数 0
回答已采纳
1
回答
Tensorflow
:使用tf.mat_fn()或tf.nn.dynamic_rnn()在LSTM之前应用层有什么区别?
python
、
tensorflow
、
deep-learning
、
lstm
这个问题是关于使用
Tensorflow
的
编码策略。我想建立一个小型分类器网络,由: 我是否在我
的
LSTM层之前使用这个简单
的
层,并将两者传递给操
浏览 1
提问于2016-11-30
得票数 3
1
回答
TensorFlow
.jl输出
dynamic_rnn
形状
tensorflow
、
julia
、
lstm
朱莉娅0.6.0 我正在建立一个用于时间序列预测
的
我需要每个时间步骤
的
输出,因为我想要计算损失,而不仅仅是最后一步。根据,
dynamic_rnn
的
输出应该具有形状[batch_size, max_time, cell.output_size] (如果是time_major == False)。在python
中
,这可以很好地
浏览 3
提问于2017-12-11
得票数 1
回答已采纳
3
回答
动态展开RNN意味着什么?
neural-network
、
tensorflow
我在
Tensorflow
源代码
中
特别提到了这一点,但是我正在寻找一种概念上
的
解释,它通常扩展到RNN。在
tensorflow
rnn方法
中
,记录了以下内容:
参数
sequence_length是可选
的
,用于复制通过批处理元素
浏览 6
提问于2016-08-14
得票数 23
2
回答
什么是
TensorFlow
中
的
动态RNN?
tensorflow
、
recurrent-neural-network
我对什么是动态RNN (即
dynamic_rnn
)感到困惑。它返回输出和
TensorFlow
中
的
状态。这些状态和输出是什么?在动态神经网络
中
,在
TensorFlow
中
什么是动态
的
?
浏览 3
提问于2017-03-29
得票数 12
1
回答
如何在cell= ConvLSTMCell中使用MultiRNNCell?
tensorflow
、
lstm
、
recurrent-neural-network
如何使用cell = ConvLSTMCell()和MultiRNNCell在每一层中使用不同数量
的
过滤器来构建多层神经网络?
浏览 3
提问于2018-02-23
得票数 0
回答已采纳
1
回答
Seq2Seq在
TensorFlow
教程中使用桶
tensorflow
我想知道为什么在Seq2Seq
TensorFlow
教程
中
引入了这些桶。我理解不处理填充符号可以提高效率,但如果使用rnn并指定sequence_length
参数
,则可以避免处理填充符号。或者如果您使用
dynamic_rnn
。 这是因为它有助于在多台设备/机器之间分发培训吗?
浏览 0
提问于2016-07-14
得票数 0
回答已采纳
1
回答
在
TensorFlow
dynamic_rnn
中使用
TensorFlow
参数
时如何处理填充
tensorflow
、
machine-learning
、
deep-learning
、
sequence
、
recurrent-neural-network
我试图在
Tensorflow
中使用
dynamic_rnn
函数
来加速训练。在进行了一些阅读之后,我
的
理解是,加快培训
的
一种方法是显式地向
函数
中
的
sequence_length
参数
传递一个值。经过更多
的
阅读,并找到这样
的
解释,似乎我需要传递
的
是一个向量(可能由一个tf.placeholder定义),它包含了批处理
中
每个序列
的
长度。这里是我感到困惑<e
浏览 0
提问于2018-01-26
得票数 3
回答已采纳
0
回答
在使用seq2seq时,tf.nn.dynamic_rnn如何处理不同长度
的
输入?
tensorflow
、
deep-learning
这里我问
的
是动态行为是如何工作
的
。这是上述
dynamic_rnn
函数
的
tensorflow
。此
函数
创建
的
RNN输入块
的
最大长度是多少?它会根据最大
的
输入填充所有较短
的
吗?
浏览 0
提问于2017-06-07
得票数 2
回答已采纳
1
回答
多对一RNN
的
截断反向传播
tensorflow
、
neural-network
、
recurrent-neural-network
、
rnn
我一直在看这篇关于RNN
的
文章: 此外,如果可能的话,我对在训练和测试中使用不同
的
时间步长很感兴趣。有可能做到这一点吗?总结问题: 1.如何对多对一
的
RNN使用适当
的
截断BP ? 2.如何使用变长序列进行训练/测试?
浏览 2
提问于2018-04-20
得票数 0
1
回答
如何使用legacy_seq2seq实现多维输入rnn
tensorflow
、
rnn
对于legacy_seq2seq,它只支持带有2D张量列表
的
输入。如果模型
的
每个输入都有更多
的
参数
。说,[1,2,2,3,3,4...]而不是1,2,3,4,...那么,如何使用
tensorflow
实现批处理方法
中
的
多维输入rnn呢?或者它不存在?
浏览 13
提问于2018-01-12
得票数 0
0
回答
基于
tensorflow
的
多维动态rnn
tensorflow
、
recurrent-neural-network
在
tensorflow
的
dynamic_rnn
函数
中
,我对输出形状感到惊讶,我希望有人能帮助我提高对RNN cell
的
理解。input_dim =2(即两个时间序列)和110是批量大小;并且该单元被定义为,其中hidden_dim =6问题: 1:这些维度意味着时间序列<em
浏览 5
提问于2016-12-30
得票数 0
2
回答
关于简单Keras和
Tensorflow
代码性能
的
问题
tensorflow
、
keras
、
lstm
、
recurrent-neural-network
我使用Keras和
Tensorflow
和LSTM编写了简单
的
Sin
函数
预测器,但发现Keras代码
的
性能要慢得多,运行大约5分钟,而
Tensorflow
代码运行模型只需要20秒。此外,Keras
的
预测性能不如Keras one精确。有人能帮我找出2个模型之间
的
代码差异吗? 我在网上破解了代码,打算用同样
的
超
参数
来训练模型。但性能并不像预期
的
那样好。'pred_vs_real_BS'+str(BAT
浏览 0
提问于2019-08-06
得票数 1
1
回答
static_rnn和
dynamic_rnn
有什么区别?
python
、
tensorflow
在
tensorflow
中
,tf.nn.static_rnn和tf.nn.dynamic_rnn有什么区别,以及何时使用它们?这两种方法都采用了一个sequence_length
参数
,使计算适应于输入
的
实际长度;这并不是说static_rnn仅限于固定大小
的
输入,对吗?
dynamic_rnn
有以下额外
的
参数
: 但我认为这些只是微小
的
浏览 0
提问于2018-07-19
得票数 7
回答已采纳
1
回答
计算tf.while_loop各时间步长
的
梯度
python
、
tensorflow
、
while-loop
、
backpropagation
给定一个
TensorFlow
tf.while_loop,如何计算x_out相对于网络每个时间步长
的
所有权重
的
梯度?steps, x_out] condition, [steps, layer_1]一些笔记 在我
的
网络
中
不同
的
运行将以不同
的
次数运行while循环。在循环中使用tf.gradients
的
唯一可能性似乎是只计算相对于weight_1<em
浏览 0
提问于2018-03-29
得票数 10
回答已采纳
1
回答
如何将`None`批量大小传递给
tensorflow
动态rnn?
tensorflow
、
deep-learning
、
conv-neural-network
、
rnn
最初我有一个图像,我正在转换使用CNN在word图像上提取
的
特征,并构建一个特征序列,我将其作为连续数据传递给RNN。下面是我如何将特征转换为顺序数据:其中,a,b,c是使用CNN提取
的
3目前我可以向模型common.BATCH_SIZE传递一个常量batch_size,但我想要
的
是能够将变量batch_size传递给模型。 如何做到这一点?_dims = [as_dimension(d)
浏览 0
提问于2017-07-10
得票数 0
1
回答
为什么要在
TensorFlow
中使用state_saving_rnn()
函数
?
out-of-memory
、
tensorflow
、
recurrent-neural-network
TensorFlow
提供了以下
函数
来创建RNN:rnn()、
dynamic_rnn
()、state_saving_rnn()和bidirectional_rnn()。我想知道您什么时候会想要使用state_saving_rnn()
函数
? 我猜这是针对大型RNN
的
。当通过时间展开时,您实际上获得了一个潜在
的
非常深
的
网络,如果每一层都有许多
参数
,GPU可能会耗尽内存。因此,该
函数
将在每个时间步保存状态(可能保存到磁盘,也可能保存到CPU<
浏览 7
提问于2016-09-15
得票数 0
1
回答
及时回传tf.nn.dynamic_rnn用于顺序输入(来自批处理)
tensorflow
、
deep-learning
、
lstm
、
recurrent-neural-network
、
rnn
来模拟批处理
的
时间步骤。因此,假设我在网络
中
对N个项进行了前向传递,并从
dynamic_rnn
中提供了最终
的
单元格状态和隐藏状态。现在,要执行反向传播,我应该向LSTM输入什么?(说,不。,我是从前一批
的
前向传播
中
从
dynamic_rnn
获得
的
。)还是我已经在时间序列
中
显式地展开了LSTM层,并通过提供一个单元状态向量并隐藏在前一个
浏览 0
提问于2018-03-14
得票数 0
1
回答
如何在
Dynamic_rnn
中使用正则化
tensorflow
、
deep-learning
、
regularized
我想在
tensorflow
中使用l2-regularizatin和
Dynamic_rnn
,但目前似乎没有很好地处理。While循环是错误
的
来源。下面是重现该问题
的
示例代码片段import
tensorflow
as tfbatch = 2 dim = 3rnn/gru_cell/gates/kernel/Regularizer/l2_regularizer whil
浏览 0
提问于2018-04-07
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券