腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
任何
keras
层
中
,
dropout
layer
和
dropout
参数
之间
的
区别
是什么
、
、
keras
中
的
Dropout
层
与
dropout
和
recurrent_droput
参数
有什么不同?它们是否都服务于相同
的
目的?示例: model.add(
Dropout
(0.2)) #
layer
model.add(LSTM(100,
dropout
=0.2, recurrent_
dropout
=0.2)) # parameters
浏览 59
提问于2019-03-19
得票数 3
回答已采纳
1
回答
如何在
Keras
中将训练设置为true后再禁用辍学?
、
、
、
、
我有以下代码: """ optimizer='adam',为了我
的
目的然而,在此之后,我需要在
Dropout
<e
浏览 4
提问于2022-04-05
得票数 1
回答已采纳
1
回答
将删除图层添加到U_Net Segmentation_Models
、
、
、
、
我正在使用U_Net分割模型对医学图像进行分割,使用Kersa
和
Tensorflow 2。我想在模型
中
添加一个
dropout
,但我不知道在哪里添加它?有人能帮上忙吗? 谢谢
浏览 100
提问于2021-10-26
得票数 0
回答已采纳
1
回答
tf.
keras
.layers.LSTM
参数
的
意义
、
、
我在理解LSTM API
中
的
一些tf.
keras
.layers
层
参数
时遇到了困难。我正在研究使用CuDNNLSTM
层
而不是LSTM
层
(以加快培训),但是
在
我承诺使用CuDNN
层
之前,我希望完全了解使用CuDNNLSTM而不是LSTM
层
所丢失
的
参数
。
dropout
再说一遍,
dropout</em
浏览 3
提问于2019-08-08
得票数 3
回答已采纳
1
回答
如何从Tensorflow
的
Huggingface
中
修改基本ViT体系结构
、
、
、
我是新
的
拥抱脸,并希望采用相同
的
变压器架构做在ViT
的
图像分类到我
的
领域。因此,我需要改变输入形状
和
所做
的
增强。来自拥抱脸
的
片段:import tensorflowtf_vi_t_for_image_classification_1" _______________________________________
浏览 13
提问于2022-03-15
得票数 2
回答已采纳
1
回答
添加多个隐藏
层
角点
、
、
、
、
我有一个使用
keras
的
简单情感分析器,下面是我
的
代码,
在
github:上使用
keras
代码from __future__ import print_function model.add(GRU(hidden_
layer
_size,
dropout
=
dropout
, recurrent_
dropout
=
dropout
)) model.add(Activation
浏览 1
提问于2018-08-21
得票数 1
回答已采纳
1
回答
如何计算LSTM角
的
预测误差
、
、
、
、
我有一个LSTM,我使用python构建并在
keras
中
运行它。我用这个模型来预测未来
的
n点对一个时间序列
的
预测问题。当我使用像ARIMA这样
的
方法来进行预测时,我能够为我
的
预测生成预测误差,因为模型是适合
的
,例如使用AIC最小化MLE。 是否有一种目前
在
keras
中支持
的
方法可以为我
的
回归预测生成预测错误?
浏览 0
提问于2018-12-16
得票数 1
回答已采纳
1
回答
当我试图修改Colab上加载
的
LSTM模型
参数
时出现属性错误
、
、
、
我试图从Colab上
的
Keras
加载一个LSTM模型并更改它
的
单元,但是我得到了以下错误:"AttributeError:无法设置属性“,可能是因为它与对象
的
现有只读@属性相冲突。请选择不同
的
名称”。我试着修改其他
层
的
参数
,它运行得很好。我能做些什么来解决这个问题?用于加载模型并对其进行修改
的
代码:
浏览 0
提问于2021-10-17
得票数 1
回答已采纳
2
回答
传递学习/微调-如何保持BatchNormalization
的
推理模式?
、
、
、
在下面的教程
中
,将解释当解冻包含BatchNormalization (BN)
层
的
模型时,这些
层
应该保持
在
推理模式下,
在
调用基本模型时传递training=False。关于
在
layer
.trainable = False
层
上设置BatchNormalization: 设置
layer
.trainable = False
的
意思是冻结该
层
,即它
的
内部状态
在</e
浏览 11
提问于2022-02-05
得票数 1
回答已采纳
2
回答
从
keras
dropout
层
提取
dropout
蒙版?
、
、
我想在训练时从Sequential
Keras
模型
中
的
dropout
层
提取并存储1/0
的
dropout
掩码数组。我想知道
在
Keras
中
是否有一种直接
的
方法来做到这一点,或者我是否需要切换到tensorflow (How to get the
dropout
mask in Tensorflow)。将非常感谢您
的
帮助!我对TensorFlow
和</
浏览 42
提问于2019-09-21
得票数 3
1
回答
无论架构如何,迁移学习模型
的
准确率均为0
、
、
、
、
我正在尝试使用
Keras
和
迁移学习来开发一个模型。我使用
的
数据集可以在这里找到:。classification_
layer
= layers.Dense(10, activation='softmaxretu
浏览 26
提问于2021-03-04
得票数 0
1
回答
嵌入
层
后
的
脱落
层
、
、
、
、
model = tf.
keras
.Sequential([ tf.
keras
.layers.
Dropout
tf.
keras
.layers.LSTM(64),]) 我能理解当在密集
层
之间
应用掉时,这会随机下降
浏览 2
提问于2020-08-21
得票数 1
回答已采纳
1
回答
如何控制R
中
KerasR
的
学习速率
、
、
为了
在
R
中
拟合一个分类模型,一直
在
使用library(KerasR)。$Adam
中
的
错误(lr= lr,beta_1 = beta_2,beta_2 = beta_2,:尝试应用非函数
layer
_
dropout</e
浏览 2
提问于2020-08-24
得票数 1
回答已采纳
1
回答
对RNN
层
中
的
每个输出应用密集
、
我正在尝试将以下
Keras
代码转换为纯Tensorflow,但在向双向RNN输出
的
每个时间步添加密集
层
时遇到了问题:self.model = Sequential()=
dropout
,
dropout
_U=
dropout
),以下是tensorflow
的<
浏览 7
提问于2017-09-27
得票数 3
1
回答
在
TensorFlow
中
,辍学
层
是
在
密集
层
之前还是之后?
、
、
、
、
根据
的
说法,辍学层位于最后一个密集
层
之后:
dropout
= tf.layers.
dropout
)
在
稠密
的
图层之前使用它不是更有意义吗?所以它学习从输入到输出
的
映射,并
浏览 2
提问于2017-12-07
得票数 12
回答已采纳
6
回答
如何在预测角角时禁用辍学?
、
、
、
、
在
角点神经网络模型
中
,我使用
的
是退出。一点点代码就像model.add(Dense(classes))有谁有办法
在
角点测
浏览 8
提问于2017-12-13
得票数 34
回答已采纳
1
回答
图断开:不能获得张量"x“张量
在
层
"x”
的
值。没有问题地访问了以下前几个
层
:[]
、
、
、
、
), dtype='float32') if
dropout
:
layer
_two = tf.
keras
.layers.
Dropout
(rate =
dropout
)(input_2,(input_l
浏览 3
提问于2020-08-20
得票数 0
1
回答
在
推断时启用
dropout
和
禁用BatchNormalization
、
、
、
我想使用Tensorflow 2.5
在
训练
和
推理时启用
dropout
。为此,我
在
模型
中
设置了
dropout
层
,
参数
training = True。
layer
= tf.
keras
.layers.
Dropout
(0.2, training = True) 然后我训练了我
的
模型,并使用以下代码进行了预测: prediction = model(X_test, training = Fa
浏览 119
提问于2021-08-24
得票数 0
1
回答
如何在训练后提供不同
的
Dropout
p值?
、
在
Tensorflow
中
,我会有一个placeholder,这样我就可以根据需要将它提供给网络:with tf.name_scope("
dropout
"): self.h_drop = tf.nn.
dropout
(self.h_pool_
浏览 15
提问于2017-02-12
得票数 1
回答已采纳
1
回答
Tensorflow
和
Keras
中
的
神经网络体系结构对同一数据产生不同
的
精度
、
、
、
、
我使用MNIST数据集
在
Tensorflow
中
实现了一个简单
的
MLP神经网络,之后我尝试使用
Keras
实现相同
的
网络,希望得到相同
的
结果。为了找出到底
是什么
原因,我
在
两个模型中使用了完全相同
的
优化器、激活函数、损失函数、度量、权重
和
偏差初始值以及输入
和
输出占位符。我通过查看图表所发现
的
:
在
Keras
模型
中
,第一个
D
浏览 0
提问于2018-05-08
得票数 7
回答已采纳
点击加载更多
相关
资讯
《理解dropout》分享
深度学习模型的简单优化技巧
R语言基于递归神经网络RNN的温度时间序列预测
深度学习中Dropout原理解析
从零开始学人工智能-Python·神经网络·网络
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券