腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(307)
视频
沙龙
1
回答
Tensorflow
:
使用
减法
门控
定制
LSTM
单元
、
、
、
、
我想
使用
减法
选通,这在this paper中有解释我
使用
Tensorflow
,目前的代码是:(
使用
CPU) import
tensorflow
.contrib.rnn as RNNCell tgt_cell= RNNCell.MultiRNNCell([tgt_dropout_cell] * self.opt.num_layers, state_is_tuple=True) 根据这篇论文,更改如下:其中
LSTM
选通应该是
减法
而不是乘法: ?
浏览 41
提问于2019-07-01
得票数 0
1
回答
tensorflow
如何确定哪些
LSTM
单元
将被选为输出?
、
、
、
我
使用
以下代码创建了一个
LSTM
模型:model.add(
tensorflow
1.keras.layers.
LSTM
(128)) model.add(
tensorflow
1.keras.layers.
LSTM
(128, return_sequences=True)) model.add(
tensorflow
1.keras.layers.LeakyReLU(alpha=0.5
浏览 3
提问于2021-03-15
得票数 0
回答已采纳
2
回答
丹索尔·弗洛。从BasicRNNCell切换到LSTMCell
、
、
、
、
我已经用BasicRNN构建了一个RNN,现在我想
使用
LSTMCell,但是这个段落看起来并不简单。我该换什么?: Dimensions must be equal, but are 50 and 100 for 'rnn/while/basic_
lstm
_cell/mul' (op: 'Mul') with input/home/deepnlp2017/.local/lib/python3.5/site-packages
浏览 4
提问于2017-02-21
得票数 2
回答已采纳
1
回答
递归神经网络-遗忘层和
TensorFlow
、
、
我对RNN还不熟悉,我正在努力弄清楚
LSTM
细胞的特性,它们与
TensorFlow
:有关。 GitHub网站的示例与
TensorFlow
使用
相同的
LSTM
单元
吗?我在
TensorFlow
站点上得到的唯一信息是,基本的
LSTM
单元
使用
以下体系结构:,如果它是相同的体系结构,那么我可以手动计算一个
LSTM
单元
的数字,并查看它是否匹配。另外,当我们在
tensorflow</em
浏览 2
提问于2017-05-24
得票数 8
回答已采纳
1
回答
如何在MultiRNNCell中重用权重?
、
、
从
TensorFlow
1.1开始,创建MultiRNNCell时,必须显式地创建新的
单元
格。要重用权重,您必须提供一个reuse=True标志。在我的代码中,我现在有:from
tensorflow
.contrib import rnn scope.reuse_variables()
lstm</e
浏览 2
提问于2017-05-12
得票数 0
回答已采纳
1
回答
不能用MultiRNNCell和dynamic_rnn堆栈
LSTM
、
、
我想
使用
以下代码将他的模型扩展到多层
LSTM
模型:cell = tf.contrib.rnn.MultiRNNCelltf.nn.dynamic_rnn(cell=cell, inputs=features, dtype=tf.float32) 'rnn/while/rnn/multi_rnn_cell/cell_0/cell_0/
lstm<
浏览 3
提问于2017-11-18
得票数 7
回答已采纳
2
回答
关于简单Keras和
Tensorflow
代码性能的问题
、
、
、
我
使用
Keras和
Tensorflow
和
LSTM
编写了简单的Sin函数预测器,但发现Keras代码的性能要慢得多,运行大约5分钟,而
Tensorflow
代码运行模型只需要20秒。= Sequential()
lstm
_model.add(
LSTM
(HIDDEN_UNITS, return_sequences=True))
浏览 0
提问于2019-08-06
得票数 1
1
回答
LSTM
单元
电路中的num_unit实际上是什么?
、
、
、
、
我尽了很大的努力到处搜索,但是我找不到num_units in
TensorFlow
到底是什么。我试着把我的问题和联系起来,但我无法得到明确的解释。在
TensorFlow
中,在创建基于
LSTM
的RNN时,我们
使用
以下命令正如所说,这是一个基本的
LSTM
单元
:现在,假设我的数据是: idx2char = ['h', 'i'
浏览 1
提问于2018-03-11
得票数 6
回答已采纳
1
回答
何时
使用
RNN或
LSTM
、
、
RNN和
LSTM
之间有什么区别?我们何时
使用
这两种模型中的任何一种?
浏览 15
提问于2019-04-27
得票数 1
1
回答
激活函数“饱和/不饱和”意味着什么?
、
对于上下文,在本论文中 针对梯度问题,提出了长时记忆(
LSTM
) 10、18和
门控
递归
单元
(GRU) 5等神经网络变量。然而,在这些变体中
使用
双曲的棕褐色函数和乙状体函数作为激活函数,会导致层间的梯度衰减。因此,构建和训练一个基于深度
LSTM
或GRU的RNN网络实际上是很困难的.相反,
使用
不饱和激活函数(例如relu )的CNNs可以叠加成一个非常深的网络(例如,
使用
基本卷积层的20多层和具有剩余连接的100
浏览 0
提问于2019-01-18
得票数 3
1
回答
如何
使用
张量而不是变量来表示
LSTM
单元
中的权重和偏差
、
我需要创建
LSTM
单元
,但不是为网络中的权重和偏差创建新的变量,而是
LSTM
单元
中的权重和偏差来自另一个网络的输出,即,我需要能够将张量(而不是变量,例如
使用
重用)传递给
LSTM
单元
,以用于权重和偏差。有没有办法在
Tensorflow
中做到这一点?请注意,我的目标不是定义
LSTM
,而是要知道是否有任何方法可以在当前实现中传递张量。
浏览 1
提问于2019-01-18
得票数 2
2
回答
无法将
Tensorflow
从1.0转换为
Tensorflow
2.0
、
我有
tensorflow
1.0版本的代码,无法
使用
下面的语法转换
tensorflow
2.0。你能帮帮我吗?(
lstm
_cell, output_keep_prob=self.dropout_keep_prob)Q-2 )当我
使用
上面的语法时,我得
浏览 2
提问于2019-12-04
得票数 1
2
回答
默认初始化
Tensorflow
LSTM
状态和权重?
、
、
、
、
我在
使用
Tensorflow
的
LSTM
细胞。
lstm
_cell = tf.contrib.rnn.BasicLSTMCell(
lstm
_units) 我想知道权值和状态是如何初始化的,或者确切地说,对于
Tensorflow
中的
LSTM
单元
格(状态和权重
浏览 2
提问于2018-03-11
得票数 1
回答已采纳
1
回答
ValueError:没有为任何变量提供梯度
、
、
、
这是我的模型:import
tensorflow
as tfimport
tensorflow
.keras.modelsas Mimport
tensorflow
.keras.utils as U def make_model_
lstm
_pooling_50/
lstm
_
单
浏览 0
提问于2020-11-15
得票数 6
回答已采纳
2
回答
如何在
Tensorflow
中实现堆叠的RNN?
、
、
我想在GPU上
使用
Tensorflow
1.13 1.13实现一个RNN。按照官方建议,我编写了以下代码,以获得一堆RNN
单元
cells = tk.layers.StackedRNNCells(
lstm
)
tensorflow
.python.keras.layers.cudnn_recurrent.CuDNNLSTM:(所有
单元
格都必须具
浏览 1
提问于2019-03-24
得票数 1
回答已采纳
1
回答
在python中jupyter笔记本细胞内抑制
Tensorflow
警告
、
、
、
、
Infos保留在我的结果
单元
格之外。修改选项参数
tensorflow
.get_loggerERROR')笔记本魔术 尝试在
单元</em
浏览 18
提问于2022-07-26
得票数 0
1
回答
BasicRNNCell对象不可迭代
我尝试在
Tensorflow
中构建一个情感分析模型 embedded_data_dropout = tf.nn.dropout(embedded_data, rnn_dropout_keep_prob) rnn_
lstm
_cell = tf.contr
浏览 0
提问于2017-05-18
得票数 0
1
回答
为什么在keras中CuDNNLSTM比
LSTM
有更多的参数?
、
、
我一直在尝试计算Keras中
LSTM
单元
的参数数量。我创建了两个模型,一个
使用
LSTM
,另一个
使用
CuDNNLSTM。中的参数数量遵循互联网上可用的
lstm
参数计算公式。代码 tf.disable_v2_behavior() from <e
浏览 15
提问于2020-02-22
得票数 1
2
回答
Keras中
LSTM
的多维输入
、
、
、
我想了解RNN,特别是
LSTM
是如何
使用
Keras和
Tensorflow
处理多个输入维度的。我认为,如果input_dim = 1,下面的图像很好地说明了
LSTM
的概念。 这是否意味着如果input_dim >1,那么x不再是单个值,而是一个数组?
浏览 4
提问于2017-05-01
得票数 16
回答已采纳
1
回答
Tensorflow
:修改隐藏状态的计算
、
、
我想稍微修改一下在
LSTM
的每个时间步计算(并因此重新输入)的隐藏状态。例如,向常规
LSTM
过程产生的隐藏状态添加一个常量向量这样简单的事情。我并不打算修改常规的gate机制--我更多地将其看作是对通常由
LSTM
创建的最终隐藏状态的计算。我觉得创建自己的
LSTM
单元
有点过头了。
浏览 16
提问于2017-01-21
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow系列专题:门控循环神经网络LSTM与GRU
经典必读:门控循环单元的基本概念与原理
三次简化一张图:一招理解LSTM/GRU门控机制
只有遗忘门的LSTM性能优于标准LSTM
理解LSTM中的各种阀
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券