腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Dropout
训练
参数
keras
、
neural-network
、
lstm
、
recurrent-neural-network
我希望在LSTM层中使用
dropout
进行
训练
和测试。根据这篇文章: https://towardsdatascience.com/learning-note-
dropout
-in-recurrent-networks-part-2-f209222481f8model = Sequential()model.add(
Dropout
(rate=0.2,
浏览 22
提问于2020-11-06
得票数 1
回答已采纳
4
回答
tensorflow: tf.nn.
dropout
和tf.layers.
dropout
的区别
tensorflow
对于是使用tf.nn.
dropout
还是使用tf.layers.
dropout
,我感到非常困惑。 许多MNIST的例子似乎都使用tf.nn.droput,而keep_prop则是其中的一种。但是与tf.layers.
dropout
有什么不同呢?tf.layers.
dropout
中的“速率”
参数
与tf.nn.
dropout
相似吗?一般来说,tf.nn.
dropout
和tf.layers.
dropout
之间的区别适用于所有其他类似的情况,比如tf.nn和t
浏览 24
提问于2017-06-06
得票数 27
回答已采纳
1
回答
当
训练
一个带有一些冻结模块的模型时,是否应该停用
dropout
?
deep-learning
、
transfer-learning
、
dropout
在
训练
之前,我从预先
训练
的模型中加载其
参数
的一部分,仅用于模块的子集。例如,我可以加载一个预先
训练
好的编码器。然后,我想冻结预
训练
模块的
参数
,这样它们就不会与其他模块一起
训练
。Pytorch中: param.requires_grad = False if freez
浏览 7
提问于2020-07-29
得票数 1
1
回答
使用flow_from_directory时无法创建keras模型
machine-learning
、
computer-vision
、
keras
import ImageDataGeneratorfrom keras.layers import Activation,
Dropout
) model.add(Dense(512, activation='relu', input_shape=input_shape))model.add(Dense(512, activation='relu')) m
浏览 1
提问于2017-05-06
得票数 0
1
回答
如何在编解码器Seq2Seq模型中添加
Dropout
python
、
keras
、
lstm
、
machine-translation
、
encoder-decoder
因此,我决定添加
Dropout
以避免过度适应,但我不能这样做。
浏览 11
提问于2021-03-08
得票数 1
1
回答
α-
Dropout
在
训练
和推理时间中的行为
tensorflow
、
neural-network
、
deep-learning
我的问题是tf.contrib.nn.alpha_
dropout
。我希望它有一个布尔开关,当你在
训练
和推理时,就像通常用于其他激活函数的函数一样。在作者的原始中,我们确实看到他们在selu
dropout
函数(
dropout
_selu)中有这个布尔开关(
训练
)。 我是不是漏掉了什么?
浏览 0
提问于2018-07-12
得票数 3
1
回答
下拉设置层权重数组为空
keras
、
dropout
我试图访问这个网络的经过
训练
的权重值:Y = [[1] , [2] ,[3] ,[4] ,[5] ,[6]inputDim)model.add(
Dropout
(0.2))mo
浏览 3
提问于2017-09-26
得票数 1
回答已采纳
1
回答
为什么在测试模式下在tf.keras.layers.
Dropout
中设置training=True会导致较低的
训练
损失值和较高的预测精度?
tensorflow
、
tensorflow2.0
、
dropout
我在tensorflow (tf.keras.layers.
Dropout
)中实现的模型上使用了
dropout
层。我在
训练
时设置了"training= True“,在测试时设置了"training=False”。性能很差。我在测试过程中也不小心更改了"training=True“,结果变得更好了。为什么它会影响
训练
损失值?因为我不会对
训练
进行任何更改,整个测试过程都是在
训练
之后进行的。然而,在测试中更改"training=True“会影响
训
浏览 1
提问于2019-11-15
得票数 2
1
回答
如何在
训练
后提供不同的
Dropout
p值?
tensorflow
、
keras
name="
dropout
_keep_prob") with tf.name_scope("
dropout
"):然而,我不确定如何在Keras中做到这一点: # in_
dropout
= tf.placeholder(tf.float32, name="<em
浏览 15
提问于2017-02-12
得票数 1
回答已采纳
2
回答
dropout
能否提高
训练
数据的性能?
neural-network
、
deep-learning
、
training-data
、
loss-function
、
dropout
我正在
训练
一个带有
dropout
的神经网络。当我将
dropout
从0.9减少到0.7时,
训练
数据数据的损失(交叉验证误差)也会减少。我还注意到,当我减少
dropout
参数
时,准确率会增加。
浏览 3
提问于2019-11-26
得票数 2
1
回答
在CudnnLSTM中使用下拉列表进行培训和验证
python
、
tensorflow
、
validation
、
lstm
我试图在CudnnLSTM (tf.contrib.cudnn_rnn.python.layers.CudnnLSTM)中使用退出,我希望能够只构建一个图,并将其设置为用于
训练
的非零分数值,然后将其设置为使用通常的Tensorflow LSTM单元(tf.contrib.rnn.LSTMCell),这并不太困难,因为keep_prob
参数
接受Tensor,但我发现这不是CudnnLSTM的选项。如果通过全局设置下拉列表不起作用,而且我不能使用Tensor**,,那么我如何将辍学设置为不同的
训练
和验证呢?
浏览 1
提问于2017-12-07
得票数 2
1
回答
蒙特卡洛辍学不会改变任何事情
machine-learning
、
scikit-learn
、
neural-network
我曾经尝试过正常的
dropout
,它总是提供更好的结果,所以这一次我想尝试蒙特卡洛方法来看看它是如何工作的,但它无论如何都不会改变任何东西;一切看起来都和以前一样。
浏览 0
提问于2019-12-06
得票数 0
1
回答
在推断时启用
dropout
和禁用BatchNormalization
python
、
tensorflow
、
keras
、
dropout
我想使用Tensorflow 2.5在
训练
和推理时启用
dropout
。为此,我在模型中设置了
dropout
层,
参数
training = True。layer = tf.keras.layers.
Dropout
(0.2, training = True) 然后我
训练
了我的模型,并使用以下代码进行了预测: prediction = model(X_test但是,我不知道在模型预测函数中放入training = False是否会将
dropout
层另外设置为training =
浏览 119
提问于2021-08-24
得票数 0
1
回答
Tensorflow带丢弃的前向传递
tensorflow
、
machine-learning
、
computer-vision
、
deep-learning
、
computer-science
我正在尝试使用
dropout
来获得神经网络的误差估计。这涉及到在
dropout
激活的情况下,在
训练
和测试期间运行我的网络的几个前向传球。
Dropout
层似乎只在
训练
时激活,而不是在测试时激活。在Tensorflow中,只需调用一些函数或修改一些
参数
就可以做到这一点吗?
浏览 0
提问于2018-02-06
得票数 2
回答已采纳
1
回答
为什么我的keras自定义层很适合
训练
数据,但是在验证方面却给出了不好的结果?
python
、
keras
、
conv-neural-network
_
dropout
_ratio =
dropout
_ratio self.
dropout
=
Dropout
(rate=self._
dropout
_ratio) self._
dropout
_ratio is not None
浏览 0
提问于2019-06-13
得票数 0
回答已采纳
1
回答
使用循环中的命令行从ipython notebook运行python文件
for-loop
、
command-line
、
neural-network
、
pytorch
、
hyperparameters
我已经构建了一个使用training.py进行
训练
的模型。我想要调优超
参数
,并通过改变传递的
参数
来运行notebook in loop中的以下脚本。python training.py --cuda --emsize 1500 --nhid 1500 --
dropout
0.65 --epochs 10 例如:如果超
参数
是
dropout
,我希望能够通过改变
dropout
值在循环中运行脚本,并绘制图形。
浏览 0
提问于2018-04-06
得票数 0
1
回答
tf.nn.
dropout
的用途是什么?
python
、
tensorflow
、
deep-learning
我注意到TensorFlow中有两个与
dropout
相关的API,一个是tf.nn.
dropout
,另一个是tf.layers.
dropout
。我只是想知道tf.nn.
dropout
的用途是什么?根据的说法,应该有一个
参数
来区分
训练
和测试阶段。我看到tf.layers.
dropout
提供了正确的行为,那么为什么要使用另一个函数tf.nn.
dropout
呢?有谁知道吗?谢谢。
浏览 2
提问于2018-04-02
得票数 0
3
回答
将
Dropout
添加到测试/推理阶段
python
、
neural-network
、
keras
、
deep-learning
、
dropout
我已经为Keras中的一些时间序列
训练
了以下模型: first_layer = Dense(24,(0.3)(second_layer) model_1 = Model(input_layer, out) new_
dropout
=
Dropout</
浏览 0
提问于2018-10-11
得票数 2
回答已采纳
1
回答
deploy.prototxt中的丢弃层有什么作用?
machine-learning
、
neural-network
、
computer-vision
、
deep-learning
、
caffe
我在某处读到,在测试期间没有应用
Dropout
。deploy.prototxt中
dropout
层的用途是什么?不是deploy文件用来测试模型吗?提前感谢
浏览 0
提问于2017-02-19
得票数 2
1
回答
Keras不一致
训练
结果
machine-learning
、
neural-network
、
keras
、
tensorflow
我在云GPU上
训练
。当我进行两次
训练
时,我得到了完全不同的精度和损失图。我在下面随机种下种子,仍然没有运气。有什么遗漏了吗?或者这是外部GPU上的正常行为?因此很难判断我的超
参数
调整。Sequentialfrom keras.layers import Convolution2D, MaxPooling2D,
Dropout
f1_score, import keras.backend a
浏览 0
提问于2019-01-27
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
初见dropout
上海交大:基于近似随机Dropout的LSTM训练加速
深度学习之CNN训练参数
深层神经网络参数调优(二)——dropout、题都消失与梯度检验
opencv_cascade各个训练输出参数
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券