腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(156)
视频
沙龙
4
回答
如何在tensorflow中的EarlyStopping回
调
中监视经过过滤的度量版本?
python
、
tensorflow
、
keras
当训练神经
网络
时,验证损失可能是有噪音的(有时甚至是训练损失,如果你使用随机层,如辍学)。当数据集较小时,尤其如此。这使得当使用回
调
(如EarlyStopping或ReduceLROnPlateau )时,这些回
调
会被过早触发(甚至使用很大的耐心)。而且,有时我不想在ReduceLROnPLateau回
调
中使用很大的耐心。但是,我不认为有任何简单的方法可以解决这个问题,因为回
调
只接受不依赖于前一个时代的度量标准。我尝试过使用自定义训练循环来使用自定义筛选度量来再现这些回
调
的功能,但我认为
浏览 6
提问于2021-05-27
得票数 2
回答已采纳
1
回答
Keras不能计算回
调
中的图节点
python
、
tensorflow
、
keras
_d = d print(
epoch
) print(K.eval(self.Foo是一个回
调
,它将试图在一个时代结束时计算附加数量d。对我来说,如果我选择d为y_pred或y_another,那么Keras抱怨占位符x (input)没有被喂食。如果是的话,还有其他方法来计算Keras回
调
中的节点吗?请注意,如果没有计算所述图节点的回
调
,则该示例运行良好。
浏览 0
提问于2018-08-16
得票数 2
1
回答
对Keras中的steps_per_
epoch
和validation_steps的困惑
keras
、
tensorflow
根据TF 2中的文件: next
epoch
.If x is a is None, the
epoch
will runand starting the next
epoch
.为什么需要另一个steps_per_
浏览 0
提问于2019-12-21
得票数 3
1
回答
Keras ModelCheckpoint监视多个值
python
、
tensorflow
、
keras
、
conv-neural-network
、
keras-2
我想使用Keras ModelCheckpoint回调来监视多个参数(我有一个多任务
网络
)。只需要一个回
调
就可以了吗?或者在很多回
调
中我需要这样做吗?基因点的创造:checkpointer = ModelCheckpoint(filepath='checkpoints/w
浏览 0
提问于2018-02-25
得票数 6
4
回答
如何提高深层神经
网络
的精度
machine-learning
、
neural-network
、
deep-learning
、
tensorflow
、
accuracy
90%的数据用于训练神经
网络
,其余10%用于测试。
Epoch
2 completed out of 30 loss : 12377.467597961426-------------
Epoch
26 completed out ofout of
浏览 0
提问于2018-05-05
得票数 6
回答已采纳
1
回答
如何在各阶段训练中打印权重和偏倚
keras
、
neural-network
、
keras-layer
训练各阶段后神经
网络
中权重和偏置的打印方法print_weights = LambdaCallback(on_
epoch
_end=lambda
epoch
, logs: printaccuracy'],callbacks = [print_weights]) ValueError:(此时不支持session_kwargs中的一些键:%s,dict_keys(‘回
调
’
浏览 0
提问于2019-01-05
得票数 0
回答已采纳
6
回答
如何将Keras丢失输出记录到文件
python
、
logging
、
machine-learning
、
neural-network
、
keras
当您运行Keras神经
网络
模型时,您可能会在控制台中看到这样的内容: 6/1000 [..............................] - ETA: 7994s我也尝试过使用回
调
,如: while 1:logloss=LossHisto
浏览 7
提问于2016-07-18
得票数 61
回答已采纳
1
回答
使用tf.GradientTape的TensorFlow 2.0学习速率调度器
python-3.x
、
tensorflow2.0
我必须训练一个160个时期的神经
网络
,其中学习率将在80和120个时期降低10倍,其中初始学习率= 0.01。def scheduler(
epoch
, current_learning_rate): return我知道如何使用"model.fit()“作为回
调
函数: callback = tf.keras.callbacks.LearningRateScheduler(scheduler)
浏览 22
提问于2020-03-23
得票数 2
1
回答
如何利用Keras训练和调整人工多层感知器神经
网络
?
python
、
machine-learning
、
neural-network
、
keras
我正在使用Keras构建我的第一个人工多层感知器神经
网络
。
Epoch
2/20
Epoch
3/20
Epoch
6/20
Epoch</em
浏览 3
提问于2016-01-08
得票数 4
回答已采纳
3
回答
Python/Keras -如何访问每个时期的预测?
python
、
machine-learning
、
keras
、
deep-learning
我正在使用Keras来预测时间序列。作为标准,我使用了20个时期。我想通过预测20个时期中的每个时期来检查我的模型是否学习得很好。有人知道怎么帮我吗?
浏览 1
提问于2016-04-26
得票数 20
回答已采纳
3
回答
在以下简单的Keras
网络
中,梯度下降在某些运行中不收敛,在其他运行中收敛。
keras
、
tensorflow
、
gradient-descent
在以下
网络
中,梯度在某些运行中不收敛而在其他运行中不收敛的原因是什么:?activation='relu')model.compile(loss='mae', optimizer='adam')epochs = 80weight_callb
浏览 0
提问于2020-11-16
得票数 -1
回答已采纳
1
回答
我怎样才能同时得到最佳的val_acc和val_loss在CNN使用角呢?
keras
我用ModelCheckpoint(file_path, monitor='val_acc', verbose=1, save_best_only=True, mode='max')得到了最大val_acc。因此,当我运行我的程序时,我会得到许多示例,如: 所以,虽然它是大号的val_loss,但它需要2个no。如何选择val_loss较低的1号?或者,如何选择最适合的模型,同
浏览 2
提问于2018-11-12
得票数 1
回答已采纳
2
回答
在Keras发生故障的情况下,如何不失去过去的运行?
python
、
tensorflow
、
neural-network
、
keras
什么是好的做法,不浪费时间/天的培训一个
网络
,如果有东西在中间?
浏览 2
提问于2018-09-20
得票数 0
回答已采纳
1
回答
在训练时期多次调用Keras回
调
python
、
tensorflow
、
keras
、
callback
我使用Tensorflow Keras来训练神经
网络
。目前,我使用以下回调来降低训练过程中的学习率: return lr * tf.math.exp(-0.1) 我使用回
调
的方法如下我想知道如何修改这个回
调
,使其在每个时期都调用n次,而不是只调用一次?这有可能吗?
浏览 2
提问于2020-08-12
得票数 0
2
回答
我怎样才能找出多少个时代的时间,为角星模型的训练?
r
、
keras
我怎样才能找出多少个时代的时间,为角星模型的训练? library(kerasR) x = matrix(data = runif(30000), nrow = 10000, ncol = 3)y = to_catego
浏览 3
提问于2021-12-16
得票数 1
回答已采纳
2
回答
损失增加的可能原因?
tensorflow
、
deep-learning
、
convolution
、
tensorboard
、
cross-entropy
我从一个由3个conv->relu->池层组成的小
网络
开始,然后再添加3层来加深
网络
,因为学习任务并不简单。我的损失是这样做的(在3层和6层
网络
中): ,我的损失增加到这样有可能的解释是什么?我已经理智地检查了一个由两个类组成的小数据集上的
网络
设计,这个数据集的主题是不同的,而且损失会按照需要不断下降。列车精度徘徊在40%左右
浏览 1
提问于2016-10-05
得票数 14
1
回答
前馈神经
网络
的超参数整定和过拟合-小批处理和交叉验证
python
、
machine-learning
、
neural-network
、
pytorch
我正在考虑为使用PyTorch实现的前馈神经
网络
实现一种超参数整定方法。我最初的模糊神经
网络
被命名为net,它使用一种带有epochs的小批量学习方法来实现:batch_size = 50 #larger batch size leads to overin range(num_epochs): print('
Epoch
{}'.format(
epoch
+1)) x_train,首先,理论
浏览 2
提问于2020-03-25
得票数 0
回答已采纳
1
回答
Keras - On train end回
调
未获得任何日志
python
、
tensorflow
、
keras
、
lstm
、
recurrent-neural-network
我正在从事一个项目,需要在LSTM
网络
上的一些工作。我以前没有遇到过这样的问题,奇怪的是,我没有对这部分代码做任何修改。 问题是,我需要回
调
将训练模型的过程记录到文件中,该文件名为Logger。__save_plots(logs) return #calculate
epoch
time self.
epoch<
浏览 17
提问于2019-06-08
得票数 4
回答已采纳
1
回答
Keras模型的图形表示
tensorflow
、
keras
、
tensorflow2.0
、
tf.keras
我们的目标不是可视化
网络
,而是在此基础上创建一个增强的
网络
。
浏览 2
提问于2020-08-13
得票数 0
2
回答
保留n先前的训练权重
python
、
tensorflow
、
keras
、
tf.keras
我想用Tensorflow编写一个自定义层,在该层中我需要保存该层以前的权重(因此,对于最后n个时代中的每一个都是如此)。在自定义层中,我会在哪里这样做呢?class MyDenseLayer(tf.keras.layers.Layer): super(MyDenseLayer, self).__init__() sel
浏览 1
提问于2021-01-05
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习网络调参技巧
不可不知的卷积神经网络调参技巧-李沐大神的私房调参笔记
神经网络与深度学习(八)—如何调参
这些深度学习网络调参技巧,你了解吗?
Epoch不仅过时,而且有害?Reddit机器学习板块展开讨论
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券