腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9040)
视频
沙龙
1
回答
Tensorflow
2.0中
的
LSTM
状态
元组
python-3.x
、
tensorflow2.0
如何在
TensorFlow
2.0中使用LSTMStateTuple? 我正在尝试实现如下代码: state = rnn.LSTMStateTuple(hidden_state, output)
浏览 34
提问于2020-10-06
得票数 1
3
回答
What's state_size of a MultiRNNCell in
TensorFlow
?
tensorflow
BasicLSTM单元
的
配置如下所示:num_layers = 2 hidden_size = 200
lstm
_cell = rnn_cell.BasicLSTMCell(hidden_size, forget_bias=0.0) 什么是cell.state_size 我得到
的
是30x800,但我不能理解它是怎么来
的
?PS:参考中
浏览 1
提问于2016-04-20
得票数 12
1
回答
初始化RNNCell
tensorflow
根据
tensorflow
源代码,任何RNNCell
的
状态
都应该是一个
元组
,但是当我给它一个
元组
时,它抛出一个错误,说它试图请求
状态
元组
的
ndims属性,而这个属性并不存在。我正在尝试创建一个
LSTM
,在其中我可以控制每个单独
的
输入。 这是我能做
的
最简单
的
代码,即使这样也有同样
的
问题,所以我希望我做错了什么,可以很容易地修复。下面是简单
的
代码:
浏览 17
提问于2019-05-08
得票数 0
1
回答
递归神经网络-遗忘层和
TensorFlow
python
、
tensorflow
、
recurrent-neural-network
我对RNN还不熟悉,我正在努力弄清楚
LSTM
细胞
的
特性,它们与
TensorFlow
:有关。 GitHub网站
的
示例与
TensorFlow
使用相同
的
LSTM
单元吗?我在
TensorFlow
站点上得到
的
唯一信息是,基本
的
LSTM
单元使用以下体系结构:,如果它是相同
的
体系结构,那么我可以手动计算一个
LSTM
单元
的
数字,并查看它是否匹配。另外,当我们在
浏览 2
提问于2017-05-24
得票数 8
回答已采纳
3
回答
如何从
tensorflow
RNN中选择最后一个有效输出值
python
、
tensorflow
、
lstm
我在用不同长度
的
序列训练
LSTM
细胞。tf.nn.rnn具有非常方便
的
参数sequence_length,但是在调用它之后,我不知道如何选择与批处理中每个项
的
最后一步相对应
的
输出行。我
的
代码基本如下:
lstm
_outputs, state = tf.nn.rnn
LSTM
输出。但是,我<em
浏览 5
提问于2016-03-07
得票数 5
回答已采纳
1
回答
State_is_tuple中
的
参数“
TensorFlow
”用于什么?
python
、
parameters
、
tensorflow
、
recurrent-neural-network
、
lstm
我正试图找出
tensorflow
代码(r0.11)
的
结构,并在理解RNN中使用
的
"state_is_tuple“参数(目前正在查看
LSTM
)时遇到问题。在这篇文章中,说,state_is_tuple选项设置隐藏神经元
的
状态
,和细胞
状态
是否保存在
元组
中,或者不保存在中。 所以我
的
问题是:为什么存在这个参数?它是用来做什么
的
,,为什么我要麻烦?谢谢你
的
帮助!
浏览 1
提问于2016-11-29
得票数 6
回答已采纳
1
回答
如何将双向
LSTM
状态
传递到较早
的
LSTM
层?
python
、
tensorflow
、
keras
、
lstm
我可以将隐藏
状态
和存储单元向前传递给解码器
LSTM
,但我看不出如何将值从解码器传回编码器。tf.keras.Model(inputs=[encoder_input,decoder_input], outputs=decoder_output)转发
状态
被传递到解码器
LSTM
层
的
initial_state。但是如果我用Bidirectional层包装这个Dec_
LSTM
1层,它就不会像我传递initial_state值那样中断。 我认为我不需要来
浏览 1
提问于2021-02-23
得票数 1
1
回答
如何在
tensorflow
中实现一个更复杂
的
initial_state
python-3.x
、
tensorflow
、
lstm
我目前正在使用
tensorflow
和python处理多层
LSTM
。我使用initial_state在tf.nn.dynamic_rnn中将单元格
的
前一个
状态
传递到下一步。使用它,我能够实现
状态
空间
LSTM
,如下所示: 在蓝色
的
图片中是zero_state,在绿色
的
2层
LSTM
-层中,列都是相同
的
单元格,应该只显示递归,箭头显示
状态
从一步传递到下一步。现在我想使用一个更复杂
的
ini
浏览 0
提问于2018-03-22
得票数 0
4
回答
c_state和m_state在
Tensorflow
LSTM
中是什么?
python
、
tensorflow
、
deep-learning
、
lstm
Tensorflow
r0.12
的
tf.nn.rnn_cell.LSTMCell文档将此描述为init:其中state如下:
状态
:如果state_is_tuple是假
的
,这必须是
状态
张量,2-D,批处理x state_size.如果state_is_tuple是真,这必须是
状态
张量
的
元组
,都是2-D,列大小为c_state和m_
浏览 4
提问于2017-01-22
得票数 18
回答已采纳
2
回答
默认初始化
Tensorflow
LSTM
状态
和权重?
python
、
tensorflow
、
lstm
、
recurrent-neural-network
、
initializer
我在使用
Tensorflow
的
LSTM
细胞。
lstm
_cell = tf.contrib.rnn.BasicLSTMCell(
lstm
_units)注意:对于tf.get_variable()
浏览 2
提问于2018-03-11
得票数 1
回答已采纳
1
回答
tf.contrib.rnn.static_rnn -“张量”对象不可迭代
tensorflow
、
rnn
下面是建立简单RNN
的
尝试:SEQUENCE_LENGTH = 5STATE_SIZE上面有很多这样
的
帖子,但他们没有回答这个问题。更新BATCH_SIZE = 7 VECTOR_SIZE = 3 x = tf.placeholdertf.contrib.rnn.static_rnn(cell, rn
浏览 2
提问于2017-09-27
得票数 2
1
回答
tf.nn.static_rnn给出了与输入不同
的
输出大小
python
、
tensorflow
、
lstm
、
recurrent-neural-network
我正在尝试使用
tensorflow
实现
LSTM
网。我
的
问题是,
状态
序列和输入序列
的
形状不应该相同吗?根据static_rnn
的
文档
浏览 1
提问于2017-12-31
得票数 0
2
回答
在
TensorFlow
中,如何将多层RNN
的
每一层固定到不同
的
GPU上?
tensorflow
、
gpu
、
recurrent-neural-network
、
lstm
我有一个由
LSTM
单
元组
成
的
多层RNN。我想把每一层都固定到不同
的
GPU上。在
TensorFlow
中如何做到这一点呢?import
tensorflow
as tf n_outputs = 100n_steps = 20
lstm
_cell = tf.nn.rnn_cell.BasicL
浏览 13
提问于2016-09-18
得票数 0
2
回答
TensorFlow
:记住下一批
的
LSTM
状态
(有
状态
的
LSTM
)
python
、
tensorflow
、
lstm
、
recurrent-neural-network
、
stateful
给定一个经过训练
的
LSTM
模型,我想对单个时间步执行推断,即下面示例中
的
seq_length = 1。在每个timestep之后,需要为下一个“批处理”记住内部
LSTM
(内存和隐藏)
状态
。在推理
的
最开始,根据给定
的
输入计算内部
LSTM
状态
init_c, init_h。然后将它们存储在一个LSTMStateTuple对象中,该对象被传递给
LSTM
。在训练期间,此
状态
在每个时间步都会更新。然而,为了推
浏览 49
提问于2016-07-07
得票数 29
回答已采纳
1
回答
Keras
的
LSTM
中
的
时间步骤是什么?
python
、
tensorflow
、
keras
、
lstm
我在Keras中
的
LSTM
实现有一些问题。 遵循本教程:,我创建了子序列(在我
的
例子中,有1452018个子序列,window_size = 30)。对于有
状态
LSTM
的
输入,重塑数据<e
浏览 2
提问于2019-01-02
得票数 4
回答已采纳
1
回答
具有init
状态
的
每日天气预报
的
LSTM
网络
python
、
tensorflow
、
machine-learning
、
lstm
每当我在
LSTM
网络中输入一天
的
数据进行培训时,我还想给出输出
状态
h
的
实际测量数据。step].reshape(1, 96, 2),如果按照描述
的
方式在每次迭代中设置输出
状态
h,则得到
的
结果要好于默认情况下总是将输出
状态
h设置为零
的
结果。由于输出
状态
h包含输入实测值
的
浏览 1
提问于2019-03-30
得票数 2
1
回答
LSTM
(M或num_units)解释
lstm
因此,我无法理解什么是M或nun单位,当我们编码一个
LSTM
时,如果我们有返回序列=True,我们输入一个T_D矩阵输出为T_M。对于ex: X=
LSTM
( 15,return_sequences=True)(x),是单个
LSTM
信元中15种隐藏
状态
的
值,或者这意味着在给定
的
时间戳上堆积
的
15个
LSTM
单元。
浏览 1
提问于2019-12-09
得票数 0
1
回答
如何在
TensorFlow
中初始化
LSTM
单元?
tensorflow
我已经创建了一个
lstm
,然后定义了
状态
变量以将其传递给
lstm
_cell,以便计算输出,但是
状态
不能被初始化:state = tf.zeros([20,
lstm
_cell.state_size]) outputs, states =
lstm
_cell([20,
lstm
浏览 5
提问于2017-02-28
得票数 2
回答已采纳
1
回答
在
TensorFlow
中初始化
LSTM
隐藏
状态
tensorflow
、
neural-network
、
deep-learning
、
lstm
、
rnn
谁能告诉我,在
TensorFlow
框架中,如何用用户定义
的
值初始化
LSTM
网络
的
隐藏
状态
?我试图通过给出第一个
LSTM
单元
的
特定隐藏
状态
来将辅助信息合并到
LSTM
中。
浏览 6
提问于2018-12-04
得票数 0
2
回答
元组
:将输入馈送到Pytorch
LSTM
网络时,AttributeError对象没有'dim‘属性
python
、
tuples
、
lstm
、
pytorch
、
torch
我正在尝试运行以下代码:import numpy as npimport torch.nn as nn def __init__(self, input_shape, n_actions): sel
浏览 0
提问于2018-10-28
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow教程-双向的LSTM文本分类
TensorFlow RNN Cell源码解析
Tensorflow系列专题:门控循环神经网络LSTM与GRU
Tensorflow教程-循环神经网络文本分类
用R语言实现深度学习情感分析例子
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券