腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
Dropout
解决问题
?
、
、
您好,我正在编写神经网络代码,调整代码以避免过拟合,但在我的第一个输入层和隐藏层中
使用
Dropout
时,我有以下错误: ?
浏览 23
提问于2021-06-28
得票数 0
1
回答
使用
Keras (Tensorflow后端)与移动GPU (膝上型电脑)
、
、
如果我只
使用
Tensorflow代码,GPU的
使用
率就会超过80%,温度也会上升很多。但是如果我
使用
Kers,
使用
率会下降到15%。另外,
使用
Keras不能达到GPU的最大时钟。为什么在移动(膝上型电脑)上
使用
Kers时,我的GPU
使用
率这么低?当我在笔记本电脑上
使用
Keras时,我能做些什么来确保我能获得最大的性能呢?
浏览 3
提问于2017-09-26
得票数 0
回答已采纳
1
回答
Tensorflow GAN估计器在评估时挂起
、
如果我
使用
tf.estimator.train_and_evaluate,评估的精度将始终是0.5。在我看来,tensorflow模型在从检查点加载GAN的权重时可能会出现问题。如果这是真的,该
如何
解决这个问题呢?
浏览 1
提问于2018-12-03
得票数 0
1
回答
基于自身模型的Keras迁移学习
、
我刚开始学习,我有一些关于
如何
设置它的代码的问题。我也读过其他有类似问题的帖子,但这些都帮不了我
解决问题
。dense2 = Dense(300, activation = 'relu', kernel_initializer ='he_normal&
浏览 1
提问于2019-08-05
得票数 2
回答已采纳
2
回答
在Keras中手动分配
Dropout
层
、
、
假设我
使用
的是IMDB电影评论情绪数据,并构建了如下所示的简单模型:# keeping only the first 10000 mostactivation='relu'))这本书给出了一个
使用
以下行手动设置随机辍学权重的示例of the values in the matrix layer_output *= np.random.randint(0
浏览 0
提问于2019-06-21
得票数 1
回答已采纳
2
回答
从头开始实现
dropout
、
、
、
此代码尝试
使用
dropout
的自定义实现:import torch.nn as nn# import torchvision.transforms(self, input): return F.linear(inputsuper(
Dropout
, self).,
dropout
浏览 0
提问于2019-01-09
得票数 18
回答已采纳
1
回答
从pytorch torch.hub.load中检索中间要素
我有一个通过torch.hub.load在pytorch中实例化的网络对象: model = torch.hub.load('facebookresearch/pytorchvideo', 'slowfast_r50', pretrained=True) 最后一层是到400维矢量的投影。有没有办法在前向传递过程中获得第五层?
浏览 21
提问于2021-07-10
得票数 0
1
回答
相同的神经网络结构给出了张量流和角点的不同精度
、
、
、
Keras模型model.add(
Dropout
(0.25))model.add(
Dropout
(0.25))
浏览 0
提问于2018-06-20
得票数 2
2
回答
Udacity深度学习,作业3,第3部分: Tensorflow
dropout
函数
、
、
、
我已经完成了大部分工作,并且它正在工作,但我注意到问题3,关于在tensorflow中
使用
'
dropout
‘,似乎降低了我的性能,而不是提高了它。 所以我想我做错了什么。我将把我的完整代码放在这里。如果有人能向我解释
如何
正确
使用
dropout
,我将不胜感激。(或者确认我是否正确地
使用
了它,但在这种情况下它并没有帮助。)它的准确率从94%以上(没有丢失)下降到91.5%。如果你不
使用
L2正则化,降级会更大。tf.matmul(tf_train_dataset,
浏览 2
提问于2017-12-20
得票数 2
1
回答
Keras的实际表现
如何
?
、
、
、
我试图了解
如何
实现K.layers.
Dropout
,因为在文献中,它总是被称为每个元素的0/1掩码的随机独立抽样。考虑到文献对我来说很清楚,我转而对它进行编码,我偶然发现了一个问题:由于TF
使用
图表,我们不知道样本的大小,特别是: defcall(inputs):是否将打印(假设关闭了急切的计算) None作为第一个维度 话虽如此,TF
如何
能够为每一小批中的每一个样本取样一个独立的
浏览 20
提问于2022-07-25
得票数 2
回答已采纳
1
回答
ConvNetSharp -
使用
Dropout
、
、
、
、
我也想知道
如何
“禁用”辍学层时,我没有在培训(测试)。, 2, outputData.Length / 2)); trainer.Train(inputVolume, outputVolume); // get error if there is
dropout
浏览 0
提问于2018-09-15
得票数 0
回答已采纳
1
回答
keras VGG19添加输入图层时出现图形断开连接错误
、
img_input + emb) flat1 = Flatten()(x)
dropout
1=
Dropout
(0.2)(class1)
dropout
2 =
Dropout
(0.2)(class2) outp
浏览 13
提问于2021-02-05
得票数 0
1
回答
LSTM的最佳激活和正则化方法是什么?
、
、
、
还可以在
dropout
()层之后添加LSTM层:也许还有其他我不知道的方法。
浏览 0
提问于2019-04-11
得票数 1
2
回答
TensorFlow:
如何
在不
使用
feed_dict的情况下更改keep_prob
、
因此,我没有显式地
使用
标准feed_dict为训练提供数据。然而,我需要实现
dropout
,它需要一个keep_prob占位符来在测试期间关闭
dropout
。
浏览 1
提问于2017-09-10
得票数 2
2
回答
在TensorFlow后端
使用
Keras时退出
、
、
、
我读过关于辍学的Keras实现的文章,它似乎
使用
的是反向辍学版本,尽管它说的是辍学。以下是我在阅读Keras和Tensorflow文档时所理解的内容:(将Python3.6与所有所需库的最新版本一起
使用
)
浏览 2
提问于2017-09-26
得票数 0
回答已采纳
1
回答
在Pytorch中实现课程缺失
neural尝试
使用
时间调度来调整神经网络中的丢失率。相关论文可以从下载。python中的源代码可以在中找到
浏览 19
提问于2018-08-23
得票数 0
回答已采纳
1
回答
为什么在测试模式下在tf.keras.layers.
Dropout
中设置training=True会导致较低的训练损失值和较高的预测精度?
、
、
我在tensorflow (tf.keras.layers.
Dropout
)中实现的模型上
使用
了
dropout
层。
浏览 1
提问于2019-11-15
得票数 2
4
回答
基于LSTM的文字嵌入防止文本分类过度拟合
、
、
、
、
目标: from keras.layers import Embedding,
Dropout
* 0.25 x = LSTM(num_lstm, return_sequences=True, W_regularizer=l2(0.001))(embedded_
浏览 4
提问于2017-05-08
得票数 13
1
回答
验证损失增加
、
、
我
使用
了大小为125,50的两个隐藏层。我
使用
0.075的学习率运行了600次迭代的模型。这个问题有什么解决方案吗?
浏览 1
提问于2018-05-31
得票数 4
2
回答
如何
应用ConvLSTM层
、
、
、
=0.2, recurrent_
dropout
=0.2): model.add(Bidirectional(LSTM(units,
dropout
=
dropout
, recurrent_<
浏览 61
提问于2020-12-04
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券