腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(483)
视频
沙龙
1
回答
keras
Tensorflow
2
中
GRU
和
LSTM
层
中
的
num_units
-
混淆
含义
、
、
、
我知道这个问题提出了很多次,但我没有得到明确
的
答案,因为有不同
的
答案:在tf.
keras
.layers.
LSTM
tf.
keras
.layers.
GRU
层
中有一个名为
num_units
的
参数。我在网上看到了很多关于这个参数
的
问题。对于输出
的
形状这一显而易见
的
含义
,这个参数
的
含义
并没有明确
的
答案。有人说,这意味着
浏览 49
提问于2020-11-01
得票数 0
回答已采纳
1
回答
基于递归神经网络
的
序贯模型
、
、
我一直在使用
Keras
框架
的
递归神经网络实现,在构建模型时我遇到了一些问题。
Tensorflow
1.14.0 model = Sequential() model.add(Embedding(input_dim=vocab_size, output_dim= EMBEDDING_DIM, input_len
浏览 3
提问于2019-11-25
得票数 0
1
回答
是否有可能在Google
的
TPU中使用CuDNNLSTM?
、
我可以用他们
的
GPU来做这件事,但是用他们
的
TPU来检索我
的
错误.这里有人知道我是失踪
的
吗?在CuDNNLSTM
中
实际使用TPU有意义吗?还是CuDNNLSTM只是为GPU量身定做
的
?提前谢谢。
浏览 4
提问于2020-08-27
得票数 3
1
回答
如何为
Tensorflow
LSTM
类编写自定义调用函数?
我定义了一个自定义
的
LSTM
层
,如下所示: class LSTMModel(tf.
keras
.Model): self.cnn_model = CNN_model
浏览 43
提问于2021-10-27
得票数 0
回答已采纳
1
回答
从Tf1.2更新到TF 2.xBıdırectı定向抛出对象是不可迭代
的
、
、
equivalent to this API造成此错误
的
原因是什么,以及如何在代码
中
更好地实现“tf.
keras
.layers.Bidirectional”
的
任何提示?谢谢你
的
努力
和
帮助,提前。=[2]) numHidden =
浏览 7
提问于2020-05-11
得票数 2
回答已采纳
2
回答
如何在
Keras
中
向CuDNNGRU或CuDNNLSTM添加递归辍学
、
、
、
通过传递作为
层
参数
的
值,可以在
Keras
中
的
基本
LSTM
或
GRU
层
上应用递归下拉列表。 CuDNNLSTM
和
CuDNNGRU是与CUDA兼容
的
LSTM
和
GRU
层
。主要
的
优点是他们在训练
中
的
速度是原来
的
10倍。然而,它们缺乏
Keras
中
<em
浏览 0
提问于2018-12-06
得票数 5
回答已采纳
1
回答
多个MultiRNNCell
的
行为?
我正在尝试理解一些用
TensorFlow
实现
的
RNN。MultiRNNCell是每次都创建新对象,还是向以前
的
对象添加
层
?cells_fwd_list = [] cells_fwd_list.append(tf.nn.rnn_cell.LSTMCell(
num_units
) cells_fwd = tf.nn.rnn_cell.MultiRNNCell(cells_fwd_list, state_is_tuple=True
浏览 12
提问于2019-08-18
得票数 2
回答已采纳
1
回答
在
TensorFlow
2.0
中
,LSTMCell对象与
LSTM
对象有什么不同?
、
、
、
我正在尝试在
TensorFlow
2.0 (beta1)
中
实现一个RNN。查看图层函数(继承自
Keras
),我发现:
和
两者有什么不同?如果你看看他们
的
论点,他们看起来是一样
的
。
浏览 0
提问于2019-06-26
得票数 3
回答已采纳
2
回答
Keras
中
的
默认激活函数
、
、
、
、
有人知道
Keras
中
循环
层
中使用
的
默认激活函数吗? 它说默认
的
激活函数是线性
的
。但是,默认
的
循环激活函数又如何呢?对此只字不提。任何帮助都将不胜感激。提前感谢
浏览 0
提问于2017-03-19
得票数 11
回答已采纳
1
回答
AttributeError:在从
tensorflow
.
keras
使用
LSTM
时,'google.protobuf.pyext.
、
、
、
、
在我尝试以这种方式从
tensorflow
.
keras
向我
的
序列模型添加
LSTM
层
的
代码行
中
:from
tensorflow
.
keras
.layersimport Dense,
LSTM
, Dropout,
GRU
, TimeDistributedmodelX1 = Seq
浏览 0
提问于2020-03-05
得票数 1
1
回答
在GPU上训练RNN -我应该使用哪个tf.
keras
层
?
、
、
、
我正在训练RNN,这是我使用tf.
keras
.layers.
GRU
层
构建
的
。他们需要很长时间来训练(>2个小时),所以我将把他们部署到GPU进行训练。我想知道一些关于GPU训练
的
事情: tf.
keras
.layers.CuDNNGRU
和
tf.
keras
.layers.
GRU
(以及tf.
keras
.layers.
LSTM
和
tf.
keras
.layers.
浏览 1
提问于2019-08-05
得票数 1
回答已采纳
1
回答
如何在
LSTM
/
GRU
上使用角膜注意
层
?
、
、
我想实现一个基于
LSTM
或
GRU
的
具有注意
层
的
编解码结构。我看到
Keras
有一个用于该
tensorflow
.
keras
.layers.Attention
的
层
,我希望使用它(所有其他问题
和
资源似乎自己实现它或使用第三方库)。import
tensorflow
as tf hidden
浏览 1
提问于2020-01-19
得票数 8
2
回答
LSTM
的
model.reset_states是否会影响模型
中
的
其他非
LSTM
层
?
、
、
、
、
我在tf.
keras
中使用
LSTM
的
状态模式,当我处理了序列数据时,需要手动执行reset_states,正如描述
的
。似乎人们通常会做model.reset_states(),但在我
的
例子
中
,我
的
LSTM
层
嵌入到了一个更加复杂
的
网络
中
,其中包含了其他各种
层
,比如稠密
层
、Conv
层
等等。我
的
问题是,如果我只是在我
的</em
浏览 9
提问于2020-01-08
得票数 3
回答已采纳
1
回答
基于
Keras
的
情感分类器训练
、
、
我使用
keras
(后端
tensorflow
)对亚马逊评论
中
的
情感进行分类。_________________________________________________________________
lstm
_1 (
LSTM
) (N
浏览 0
提问于2018-03-20
得票数 0
回答已采纳
1
回答
LSTM
层
输出大小与
KERAS
中
隐藏状态大小
的
比较
、
、
、
我在理解
LSTM
的
概念并在
Keras
上使用它时遇到了麻烦。在考虑
LSTM
层
时,输出大小
和
隐藏状态大小应该有两个值。samples when training the model 2. output size : how many outputs should be returned by particular
LSTM
layer 但在
keras
.layers.
LSTM
中
,只有一个参数,它用于控制
层
浏览 36
提问于2019-10-04
得票数 1
1
回答
GRU
(门控经常性单元)不工作于GPU (
TensorFlow
)
、
、
、
我正在尝试使用RTX3080在我
的
GPU (NVIDIA
TensorFlow
)上训练RNN模型,但是
TensorFlow
单元没有正常工作。我用
的
是蟒蛇。cuda
和
cudnn上安装了其他版本,但是每次我都会被困在双向
GRU
上。我还发现GPU内存可能有问题,这就是为什么我将它添加到代码
中
(在
tensorflow
导入之后)。因此,如
浏览 2
提问于2021-03-04
得票数 1
2
回答
Tensorflow
Keras
:双向RNN
的
等价实现与使用预先构建
的
双向包装器
的
结果不同
、
、
、
Tensorflow
版本= 2.0.0bw = layers.
LSTM
(
num_units
, return_sequencesRNN
和
只使用
LSTM
层
浏览 5
提问于2020-01-02
得票数 1
5
回答
CuDNNLSTM
和
LSTM
在
Keras
中有什么区别?
、
、
在高级深度学习库
Keras
中
,有多种类型
的
递归
层
,包括
LSTM
(长时记忆)
和
CuDNNLSTM。根据,CuDNNLSTM是一个: 我相信
Keras
在任何可能
的
情况下都会自动使用GPU。有关详细信息,请参阅NVIDIA
的
文档。确保将相关
的
Cuda路径名附
浏览 2
提问于2018-04-23
得票数 52
5
回答
如何计算
LSTM
网络
的
参数数?
、
、
、
、
是否有方法计算
LSTM
网络
中
的
参数总数。from
keras
.models import Sequentialfrom
keras
.layers import Embeddingmodel = Sequ
浏览 13
提问于2016-06-28
得票数 25
回答已采纳
1
回答
keras
GRU
层
中
的
返回状态
和
返回序列有什么不同?
、
、
、
、
我似乎无法理解
keras
GRU
层
中
返回状态
和
返回序列之间
的
区别。 由于
GRU
单元没有单元状态(它等于输出),那么返回状态与
keras
GRU
层
中
的
返回序列有什么不同呢?更具体地说,我构建了一个具有一个编码
层
和
一个解码
层
的
编码器-解码器
LSTM
模型。编码
层
返回其状态(retu
浏览 34
提问于2019-02-26
得票数 8
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Keras进行深度学习:(六)GRU讲解及实践
TensorFlow RNN Cell源码解析
使用Keras进行深度学习:(一)Keras 入门
深度学习在新闻情感分析中的应用
从词袋到 Transfomer,NLP 十年突破史
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券