腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
具有
Tensorflow
或Theano
的
循环计算图
tensorflow
、
theano
、
lstm
、
recurrent-neural-network
TensorFlow
和Theano似乎都不支持循环计算图,循环单元被实现为具有缓冲和展开
的
递归单元(RNN /
LSTM
单元),但这种限制主要与
反向
传播
的
计算有关。我不需要计算
反向
传播
,而只是前向
传播
。 是否有一种方法可以忽略这一限制,或者仅仅是分解非循环组件
中
的
任意计算图?
浏览 1
提问于2016-05-31
得票数 2
2
回答
Tensorflow
中
的
反向
传播
(穿越时间)代码
python
、
tensorflow
、
backpropagation
在哪里可以找到
Tensorflow
(python )
中
的
反向
传播
(通过时间)代码?还是使用了其他算法? 例如,当我创建一个
LSTM
网络时。
浏览 1
提问于2016-04-20
得票数 4
回答已采纳
4
回答
在
LSTM
中
“截断梯度”是什么意思?
tensorflow
、
recurrent-neural-network
、
lstm
我正在学习关于
LSTM
:
的
tensorflow
教程。 这一节说代码使用“截断
反向
传播
”,那么这到底意味着什么呢?
浏览 9
提问于2016-08-01
得票数 4
回答已采纳
1
回答
用于在Keras
中
初始化
LSTM
单元状态
的
MLP
tensorflow
、
keras
、
deep-learning
我们可以使用MLP
的
输出作为
LSTM
网络
中
的
小区状态,并使用
反向
传播
来训练MLP吗?这类似于使用CNN &
LSTM
的
图像字幕,其中CNN
的
输出被展平并用作初始隐藏/单元状态,并训练堆叠网络,其中甚至CNN部分也通过
反向
传播
进行更新。 我在keras
中
尝试了一个架构来实现同样
的
效果。但是MLP
的
权重没有更新。我知道这在
t
浏览 1
提问于2018-07-19
得票数 1
1
回答
LSTM
的
时间
反向
传播
(BPTT)
tensorflow
、
backpropagation
、
lstm
目前,我正试图理解
TensorFlow
中
的
LSTM
的
BPTT。我得到参数"num_steps“用于RNN展开和错误
反向
传播
的
范围。我有一个一般性
的
问题,这是如何运作
的
。问题:,哪些路径被
反向
传播
了那么多步骤?恒等误差旋转木马由公式5创建,反
传播
(s(t)->s(t-1))
的
导数对于所有时
浏览 4
提问于2016-11-29
得票数 1
1
回答
Tensorflow
中
的
LSTM
反向
传播
tensorflow
、
lstm
在扇区截断
反向
传播
的
PTB google官方教程
中
,有一个使用BasicLSTMCell
的
实现,它通过创建一个for循环来展开num_steps步骤
的
图形。final_state = state 我已经使用BasicLSTMCell实现了一个预测时间序列
的
方法,因为我没有在图中使用任何循环,但我在程序执行循环中更新了lstmCells
的
状态。,
lstm
_state_output1 =
lstm
_cell1(inpu
浏览 14
提问于2016-07-29
得票数 1
回答已采纳
1
回答
LSTM
损耗函数与
反向
传播
lstm
、
rnn
、
training
、
backpropagation
我试图理解损失函数和
反向
传播
之间
的
联系。据我所知,在
LSTM
算法
中
,
反向
传播
被用来获取和更新矩阵,在前向
传播
中使用偏差来获取当前
的
单元和隐藏状态。损失函数取训练集
的
预测输出和实际输出。但哪一部分是
LSTM
的
培训部分?它们之间有某种联系吗?
LSTM
模式
的
培训目标是什么?
浏览 0
提问于2019-08-31
得票数 0
1
回答
Tensorflow
中
RNN
的
截断回传(BPTT)
tensorflow
、
lstm
、
rnn
在这里,官方
的
TF文件说, words = tf.placeholder(tf.int32, [batch_size, num_steps])initial_state = state = tf.zeros
浏览 3
提问于2017-10-08
得票数 2
回答已采纳
1
回答
在火炬
中
截断时间
的
反向
传播
(BPTT)
pytorch
、
backpropagation
、
truncated
在pytorch
中
,我训练RNN/GRU/
LSTM
网络,方法是启动
反向
传播
(通过时间):当序列很长时,我希望通过时间进行截断
的
反向
传播
,而不是使用整个序列
的
时间进行正常
的
反向
传播
但是,我在Pytorch
中
找不到任何参数或函数来设置截断
的
BPTT。我错过了吗?我应该自己在毕道尔编码吗?
浏览 3
提问于2018-12-24
得票数 6
1
回答
有状态低
LSTM
模型
的
TensorFlow
不同输入输出形状
python
、
tensorflow
、
keras
、
lstm
、
lstm-stateful
我想要创建一个“序列”模型(您可能已经猜到了一个时间序列模型),它使用20过去
的
数据,其特征大小为2,并以相同
的
2特性大小预测1日
的
未来。我发现您需要为一个有状态
的
LSTM
模型指定批大小,所以如果我指定一个批大小为32,那么模型
的
最终输出形状是(32, 2),我认为这意味着该模型预测
的
是未来
的
32天数,而不是1。此外,在我到达问题之前询问;例如,如果我指定了32
的
批处理大小,但我想对形状(1, 20, 2)
的
输入进行
浏览 1
提问于2020-11-15
得票数 0
回答已采纳
2
回答
Scikit MLPClassifier诉
Tensorflow
DNNClassifier
neural-network
、
scikit-learn
、
tensorflow
我正试图理解Scikit MLPClassifier和
Tensorflow
DNNClassifier在分类任务上
的
区别,并希望一些专家能够分享一些信息。据我所知,它们都支持
反向
传播
、激活函数(包括relu)、optmizer (sgd/adam)。MLPClassifier还可以通过指定隐藏层和节点
的
#来建立深度神经网络。我看到
的
两种不同之处是,DNNClassifier支持GPU培训,而MLPClassifer不支持。除了GPU支持之外,它们之间还有其他区别吗?为什么要使用
浏览 0
提问于2017-11-01
得票数 2
2
回答
R神经网络多隐层包
r
、
neural-network
、
cran
我一直在使用matlab上
的
神经网络,但无法找到一个允许神经网络多个隐藏层
的
包。建议使用“`nnet”包,但它只允许一个对我没有用处
的
层网络。还有其他能像matlab那样训练复杂神经网络
的
软件包吗? (如果存在,则可能应该更新CRAN页面。对如何做到这一点有什么想法吗?)
浏览 4
提问于2014-06-04
得票数 4
1
回答
seq2seq -编码器
反向
传播
machine-learning
、
tensorflow
、
lstm
、
backpropagation
、
encoder
我很难理解seq2seq模型
中
的
编码器是如何进行
反向
传播
的
.没有标签,因此不可能计算错误,这是
反向
传播
的
,但
LSTM
层
的
权重被以某种方式更新。l_enc_input = Input(batch_shape=(batch_size, None, embedding_size)) l_enc_
lstm
=
LSTM
(encoding_size,stateful=True, dropou
浏览 7
提问于2017-09-22
得票数 1
1
回答
LSTM
反向
传播
,然后是最大/平均池化
neural-network
、
lstm
、
backpropagation
最大/平均池是基于
LSTM
输出生成表示
的
方法。在这种情况下,
反向
传播
是如何发生
的
? 我理解在未完成池化
的
情况下
反向
传播
是如何发生
的
。但我想知道在上述情况下是如何发生
的
。提前谢谢。
浏览 0
提问于2018-07-20
得票数 0
1
回答
截断
反向
传播
对时间
反向
传播
步数
的
影响
tensorflow
、
backpropagation
、
lstm
、
recurrent-neural-network
我目前正在开发一个利用
tensorflow
的
LSTM
细胞进行时间序列预测
的
模型。我
的
模型类似于。它可以工作,但是我不知道当使用截断
的
反向
传播
时,如何理解回退参数
的
数目(在示例
中
这个参数称为num_steps )。 据我所知,模型参数在每个num_steps步骤之后都会更新。但这是否也意味着该模型不识别比num_steps更远
的
依赖项。我认为应该是因为内部国家应该抓住他们。但是,哪个效应有一个大
浏览 1
提问于2016-06-02
得票数 2
回答已采纳
1
回答
在对一个例子进行训练后,神经网络
的
损失增加了,这正常吗?
python
、
machine-learning
、
neural-network
、
lstm
、
recurrent-neural-network
我目前正在测试
LSTM
网络。在
反向
传播
之前和
反向
传播
之后,我将其预测
的
损失打印在训练示例上。之后
的
损失应该总是小于之前
的
损失,这是有意义
的
,因为网络只是在该示例上进行了训练。然而,我注意到在第100个训练示例左右,网络在
反向
传播
之后开始给出比在训练示例上
反向
传播
之前更不准确
的
预测。 一个网络总是期望前损失高于后损失吗?如果是这样的话,有没有什么原
浏览 3
提问于2018-11-25
得票数 0
1
回答
在中间层
中
重新组织输出时,
tensorflow
将如何处理
反向
传播
tensorflow
、
backpropagation
我有一个带有隐藏层
的
神经网络,它输出一个数字A,然后我使用一个函数,它使用A来生成一个向量。问题是TF在
反向
传播
时能正确处理这个问题吗?我确实在TF
中
尝试过,它可以输出一些东西,但我仍然不确定bp是否工作正常。顺便说一句,我用来从数字生成向量
的
函数是(V是上一层
的
输出,d是我输入
的
值,G是常量): dmn = [] for k in range(G):
浏览 6
提问于2017-10-05
得票数 0
2
回答
tensorflow
如何使用
反向
传播
来训练模型?
machine-learning
、
neural-network
、
tensorflow
我是
tensorflow
的
初学者,我想实现MLP并基于
反向
传播
算法对其进行训练,但当我阅读教程时,我发现它使用了像“随机梯度下降”这样
的
优化器,并在没有实现算法阶段
的
情况下调用了
反向
传播
。这是如何
反向
传播
的
?
浏览 8
提问于2016-12-15
得票数 1
1
回答
Tensorflow
RNN序列训练
tensorflow
我正在做我
的
第一步学习TF和有一些困难
的
训练RNN。 我
的
玩具问题是这样
的
:一个两层
的
LSTM
+密集层网络被输入原始音频数据,并且应该测试声音
中
是否存在一定
的
频率。我已经在Keras上完成了这个任务,并看到了类似的TFLearn解决方案,但我希望以一种相对高效
的
方式在裸
Tensorflow
上实现这一点。我
的
(很多)问题:如何使这个网络直接从
Tensorflow
返回一个序列,而不对
浏览 1
提问于2016-10-08
得票数 1
回答已采纳
1
回答
在模型训练期间,
tensorflow
中保存
的
激活值在哪里?
tensorflow2.0
、
activation-function
在
tensorflow
2
中
,我们知道在
反向
传播
过程
中
,我们需要权重和激活来计算偏导数,我可以在模型tf.keras.Model中找到权重,但是激活值(用于
反向
传播
计算
的
中间值),它们存储在哪里?
浏览 14
提问于2021-09-21
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券