腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
更改
learning_phase
时
,
Keras
中
的
Dropout
没有
任何
影响
、
([10], name='Input')X =
Dropout
(0.5, seed=0)(X)X =
Dropout
(K.set_learning_phase(1)
浏览 14
提问于2018-01-16
得票数 0
2
回答
在序列模型
中
增加预处理层
时
的
Keras
错误
、
、
、
import Sequentialfrom tensorflow.
keras
.utils import然后,我将预处理模型添加到另一个序列模型
中
,只包括它和一个
Dropout
层。model = Sequential()model.add(
Dropout
(0.25)) 最后,我再次以与以前相同
的
方式打印这些图像,而
没有
在所有上
浏览 12
提问于2022-06-02
得票数 0
回答已采纳
2
回答
带丢球
的
Keras
前向传球
、
、
、
我正在尝试使用
dropout
来获得用于神经网络
的
。 这包括在训练后运行我
的
网络
的
几个前向传球,并激活
dropout
。但是,在调用model.predict()
时
,
Dropout
似乎并未激活。这可以在
Keras
完成吗,或者我必须把我
的
重量带到其他地方?
浏览 0
提问于2017-06-04
得票数 2
1
回答
如何在
Keras
模型
中
禁用用training=True调用
的
退出层?
、
、
、
、
我想看看培训tf.
keras
模型
的
最终结果。在这种情况下,它将是来自softmax函数
的
预测数组,例如0、0、0、1 0、1。def get_model(): x = tf.
keras
.layers.
Dropout
(rate=
dropout
_rate)(inputs, training=True) x = tf.
keras
.l
浏览 1
提问于2019-08-09
得票数 3
回答已采纳
1
回答
在
Keras
模型
中
获取中间层输出
的
正确方法是什么?
、
、
、
、
我已经在
Keras
中
训练了一个模型,并希望从中间层提取输出。模型包含
dropout
层,我想绝对确保这样做
时
不会丢失
任何
东西。model.get_layer(layer_name).output)但是,文档也展示了如何使用
Keras
3rd_layer_output([x, 0])[0] layer_output
浏览 38
提问于2018-06-29
得票数 8
回答已采纳
1
回答
如何在
Keras
中将训练设置为true后再禁用辍学?
、
、
、
、
我有以下代码: """ optimizer='adam',为了我
的
目的然而,在此之后,我需要在
Dropout
层中
浏览 4
提问于2022-04-05
得票数 1
回答已采纳
1
回答
如何在tf.
keras
.Model
中
禁用
Dropout
以使用传输学习生成激活最大化图像
、
我正在使用转移学习和
keras
.applications.InceptionV3。我成功地训练了这个模型。然而,当我想要生成“激活最大化”映像(例如,最大限度地激活自定义类
的
输入映像,参考 )
时
,我很难使用预先训练过
的
模型,因为我确实能够在“适合”模式下使用它,并且禁用所有的辍学等等。我所做
的
是将tf.
keras
.Sequential
中
的
预训练模型组合起来,对第一层(输入图像)
的
权重进行梯度下降。然而,尽管设置了base_model.
浏览 2
提问于2019-11-22
得票数 0
1
回答
为什么在测试模式下在tf.
keras
.layers.
Dropout
中
设置training=True会导致较低
的
训练损失值和较高
的
预测精度?
、
、
我在tensorflow (tf.
keras
.layers.
Dropout
)
中
实现
的
模型上使用了
dropout
层。我在训练
时
设置了"training= True“,在测试
时
设置了"training=False”。性能很差。我在测试过程
中
也不小心
更改
了"training=True“,结果变得更好了。为什么它会
影响
训练损失值?因为我不会对训练进行
任何
更改
,
浏览 1
提问于2019-11-15
得票数 2
2
回答
传递学习/微调-如何保持BatchNormalization
的
推理模式?
、
、
、
在下面的教程
中
,将解释当解冻包含BatchNormalization (BN)层
的
模型
时
,这些层应该保持在推理模式下,在调用基本模型
时
传递training=False。当您解冻包含BatchNormalization层
的
模型以进行微调
时
,您应该在调用基本模型
时
传递training=False,从而使BatchNormalization层保持在推理模式
中
。… 在示例
中
,当调用基本模型
时
,它们传递training=Fal
浏览 11
提问于2022-02-05
得票数 1
回答已采纳
1
回答
Keras
中
的
_uses_learning_phase是什么?
、
我试图用
Keras
编写自己
的
递归层,并注意到源代码
中
的
这一行: if training is None:检查代码是否为in_train_phase if training is N
浏览 0
提问于2018-09-12
得票数 5
回答已采纳
2
回答
Keras
动态图
、
众所周知,
Keras
是基于静态图
的
。然而,在我看来情况并非如此,因为我可以使我
的
图形实现是动态
的
。下面是一个简单
的
例子来证明我
的
观点:import numpy as npfrom
keras
.layersimport Dense, Input,
Dropout
from
keras
.
浏览 0
提问于2018-07-12
得票数 0
2
回答
将
Keras
Fit Generator函数中使用
的
验证数据
的
Training设置为False
如何将
Keras
fit_generator中使用
的
validation_data
的
training设置为False?我
的
模型中有
Dropout
层,我希望在训练过程
中
训练为True,在验证和测试过程
中
为False。
浏览 44
提问于2019-07-01
得票数 2
1
回答
tf.
keras
.layers.LSTM参数
的
意义
、
、
我在理解LSTM API
中
的
一些tf.
keras
.layers层参数
时
遇到了困难。如果recurrent_
dropout
在LSTM单元之间退出,这对我来说是
没有
意义
的
,因为您将忽略前面的输出,我认为这将达到拥有一个RNN
的
目的。,而不是tf.
keras
.models.sequential([Input(...), LSTM(...,
dropout
=0.5)]))之前/之后,是否可以将这些退出参数
中
浏览 3
提问于2019-08-08
得票数 3
回答已采纳
1
回答
在
Keras
DQN (强化学习)
中
实现
Dropout
、
、
首先,我必须说,我知道,
Dropout
在强化学习(RL)
中
并不常见。在这里,您可以阅读更多关于这个主题
的
内容,以及为什么它可能有意义: 我不知道如何在
Keras
中
实现
Dropout
。通常(在监督学习
中
)
Keras
负责打开/关闭
Dropout
层
的
任务,这取决于您是在训练还是测试。在我
的
例子(与RL
的
交易)
中
,我确实对火车数据进行了培训,并测试了坚持数据
浏览 4
提问于2020-12-07
得票数 0
1
回答
使用
Dropout
输出
的
嵌入层改变数组值,为什么?
、
、
、
、
观察嵌入层
的
输出有和
没有
丢失显示,数组
中
的
值被替换为0。,但伴随着这一点,为什么数组
的
其他值会改变呢?softmax output layer以输入为输入层,输出为
Dropout
(0.2)
的
输出,通过训练模型建立model2。0])[0]
dropout
[0][0]array([ 00.22043513, -0.09001804, -
浏览 2
提问于2020-05-18
得票数 1
回答已采纳
1
回答
“使用strategy.scope():”或者“使用tf.distribute.experimental.TPUStrategy(tpu).scope():‘”对NN
的
创建有什么
影响
?
、
、
在这里
的
代码
中
:https://www.kaggle.com/ryanholbrook/detecting-the-higgs-boson-with-tpus 在编译模型之前,使用以下代码创建模型:inputs =
keras
.Input(shape=[28]) x =dense_block(UNITS, ACTIVATION,
DROPOUT
)(
浏览 108
提问于2020-12-18
得票数 2
回答已采纳
1
回答
在使用tf.
Keras
.Sequential应用编程接口和LSTM评估模型
时
激活循环丢失
、
、
我预先训练了一个LSTM编码器/解码器,
没有
使用
dropout
,这样我就可以使用GPU并加快训练速度。我现在已经重新构建了模型,并添加了
dropout
和recurrent,并希望在推理过程
中
激活它,以估计我预测
的
置信区间。我不确定如何使用顺序应用编程接口在我
的
模型
中
添加training=True参数。我认为我可以在评估模型
时
做到这一点,但事实似乎并非如此: encoder_decoder_
dropout
.evaluate(v
浏览 14
提问于2020-08-26
得票数 1
回答已采纳
1
回答
ValueError:参数和签名参数不匹配。
、
、
、
、
我正在尝试按照此处:和此处:
中
概述
的
逻辑生成
keras
模型
的
预测
的
置信区间 我已经在
Keras
github问题页面上搜索了类似的问题,这些问题表明我使用了错误
的
方法来实例化一个具有预定义配置
的
新模型,但是尽管将我
的
代码从Model.from_config()
更改
为tf.
keras
.Sequential.from_config(),问题仍然存在。kernel_regularizer = regula
浏览 5
提问于2019-11-29
得票数 1
1
回答
tensorflow
keras
保存错误:添加具体函数失败
、
、
、
、
但是,当谈到保存
时
,得到下面的错误消息:'b'__inference_model_layer_call_fn_158405详细信息: 感兴趣
的
最近邻模型是使用已经训练
的
模型(embedding_network)
的
输出。并将输入输出与列车数据集输出(最近距离)进行比较。我
的
意思是,我们并不是直接比较图像,而是比较它们
的
输出。通常,我不会费心在tensorflow上编写NN
浏览 15
提问于2022-01-20
得票数 1
回答已采纳
3
回答
Keras
/Tensorflow中辍学
的
动态切换
、
、
、
、
我正在构建一个在Tensorflow
中
的
强化学习算法,我希望能够在对session.run()
的
一个调用
中
动态地关闭和打开。在尝试了几种解决方案w/o之后,我找到了一个解决方案,在这个解决方案
中
,我用变量替换了
Keras
使用
的
learning_phase
占位符(因为占位符是张量,不允许赋值),并使用自定义层将该变量设置为True但是,获取m3
的
值,或者同时获取m1和m2
的
值,有时是有效
的
,
浏览 0
提问于2018-12-14
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中Dropout原理解析
深度学习中的正则化技术 附Python代码
深度学习模型的简单优化技巧
深度学习中的正则化策略综述
基于TensorFlow和Keras的图像识别
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券