腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9204)
视频
沙龙
1
回答
Keras
与
Adam
的
训练
过早
停止
、
、
、
我第一次使用
Keras
来解决一个回归问题。我设置了一个提前
停止
回调,使用patience=3监控val_loss (均方误差)。然而,即使val_loss在最后几个时期减少,
训练
也会
停止
。要么是我
的
代码中有bug,要么是我无法理解回调
的
真正含义。有人能理解这是怎么回事吗?我在下面提供了
训练
进度和模型构建代码。正如你在下面看到
的
,
训练
在时代8
停止
了,但val_loss从时代6开始就一直在下降,我认为它应该继续运行。只有
浏览 33
提问于2021-08-17
得票数 0
回答已采纳
1
回答
用TensorFlow2
训练
的
简单线性回归模型
的
池性能
、
、
我
的
模型像y = 2*x + 200 + error一样简单,但我无法以简单
的
方式得到适当
的
结果。我不知道发生了什么。import numpy as npx = np.arange(100)y = 2*x + 200 + error model =
keras</e
浏览 3
提问于2020-11-12
得票数 0
回答已采纳
2
回答
EarlyStopping在tf.
keras
中
的
故障
、
、
我正在
训练
我
的
第一个转移学习模式(耶!)当验证损失在超过3个时期内没有超过0.1
的
变化时,我很难让模型
停止
训练
。下面是相关
的
代码块 l
浏览 4
提问于2020-03-11
得票数 3
回答已采纳
1
回答
TensorFlow2.0: Optimizer.minimize ('
Adam
‘对象没有’minimize‘属性)
、
对于我
的
强化学习应用程序,我需要能够应用自定义梯度/最小化变化
的
损失函数。根据documentation
的
说法,应该可以使用Optimizer.minimize()函数。但是,我
的
pip安装版本似乎根本没有这个功能。我
的
代码: from tensorflow.python.
keras
.optimizers import
Adam
, SGDoptim =
Adam
testo.py"
浏览 162
提问于2019-04-01
得票数 6
回答已采纳
2
回答
如何达到满足提前
停止
条件
的
纪元数
、
、
、
如果满足某些条件,我会使用回调来
停止
训练
过程。我想知道如何访问由于回调而
停止
训练
的
纪元编号。([ tf.
keras
.layers.Dense(15,activation=tf.
keras
.activations.linearmodel.compile(loss="mse",optimizer = tf.
keras</e
浏览 58
提问于2021-10-06
得票数 0
回答已采纳
2
回答
在apply_gradients或tensorflow中无法在adamOptimizer中找到
、
、
、
apply_gradients可能已经在tensorflow或
keras
中
的
优化器
的
未来版本中被删除。不知道为什么,但我现在明白了: 还有其他方法可以达到同样
的
目的吗?
浏览 3
提问于2020-02-27
得票数 1
回答已采纳
2
回答
导入了必要
的
包,但我仍然收到ImportError:无法从'
keras
.optimizers‘导入名称'
Adam
’
、
、
、
我已经尝试在使用MobaXterm
的
HPC集群上运行机器学习
训练
程序一段时间了,并且得到了 ImportError: cannot import name '
Adam
' from '
keras
.optimizers' 当我运行主文件时,会出现类似的错误,主文件应该
训练
一个模型,然后输出一个
训练
权重文件。我正在确保通过行:"from
keras
.optimizers import
Adam
“导入
与
浏览 1073
提问于2021-07-02
得票数 1
2
回答
当达到特定
的
验证精度时,如何
停止
训练
?
、
、
、
、
我正在
训练
一个复杂
的
网络,一旦验证错误达到90%,我想
停止
训练
。我曾考虑过使用EarlyStopping并将基线设置为.90,但当验证精度低于给定时间
的
基线时(这里仅为0),它就会
停止
训练
。training_labels, validation_data=(test_images, test_labels), epochs=30, verbose=2,callbacks=[es]) 当我使用这个代码时,我
的
训练
在第一个时代之后
浏览 4
提问于2020-01-02
得票数 5
回答已采纳
1
回答
训练
损失正在减少,但验证损失是重要
的
。如何避免过度拟合
、
、
、
、
我想重新
训练
谷歌
的
mediapipe手部地标,以便进行更多关键点检测,但该模型仅在tflite格式下可用,无法重新
训练
。我创建了一个
与
mediapipe手模型相同
的
模型,并用我
的
自定义数据对其进行了
训练
,但面临着过度拟合
的
问题, 我正在使用: RMSprop作为优化器 MSE (均方误差作为损失函数) 批量大小= 32初始学习率=1e-3 decay_steps=1000 decay_rate=0.9 colab screenshot
训练</
浏览 20
提问于2021-08-03
得票数 0
2
回答
Tensorflow for XOR在500个时期后无法正确预测
、
、
、
、
我选择batch_size=1是因为问题
的
全局性是4,所以真的很小。问题是,预测结果甚至
与
正确答案相去甚远。我做错了什么?我在Google Colab上这样做,Tensorflow
的
版本是2.3.0。()model.add(tf.
keras
.layers.Dense(2, activation=tf.
keras
.activations.sigmoid)) model.add(tf.
keras
.
浏览 46
提问于2020-11-04
得票数 3
回答已采纳
2
回答
如何在测试Costum resnet模型时解决此错误?
、
、
、
、
我使用迁移学习(
Keras
)
训练
了Resnet-50,
训练
成功,我保存了模型。当我使用下面的代码测试模型时,它不工作,它给了我一个错误。如何解决此错误?for i in classes:print(names) 我得到
的
错误是:我按照这个人
的
教程来<em
浏览 1
提问于2020-07-03
得票数 0
1
回答
在
Keras
中使用
Adam
优化器恢复培训
、
、
、
我使用以下方法保存了使用
adam
优化器
训练
的
keras
模型
的
权重:继ibarrond
的
回答后,我编写了一个小
的</e
浏览 9
提问于2020-02-05
得票数 3
回答已采纳
2
回答
当准确率已经达到1.0时,
停止
Keras
中
的
训练
、
、
、
当准确率已经达到1.0时,我如何
停止
Keras
训练
?我试着监测损失值,但当准确率已经是1时,我还没有试着
停止
训练
。1000),model.compile(
Adam
batch_size=1000, epochs=1000000, callbacks=[stopping_criterions], shuffle
浏览 0
提问于2018-11-27
得票数 14
1
回答
精度大于0.99
的
停止
训练
模型
、
、
、
我想阻止我
的
模型在达到一定
的
门槛后接受
训练
。我为Tensorflow
的
回调编写了一个类。我在
训练
MNIST数据集。对手写数字进行分类并识别。但出于某种原因,
训练
并没有
停止
。我找不到理由。这是我
的
密码。import tensorflow as tf def on_epoch_end(self, epoch([ tf.
keras
浏览 3
提问于2021-04-22
得票数 0
回答已采纳
1
回答
在
Adam
优化器中使用ReduceLROnPlateau是否毫无意义?
、
、
、
、
这个问题基本上是针对那些对框架有深入了解的人,或者tf.
keras
的
工作问题。 据我所知,tf.
keras
.optimizers.
Adam
是一个具有自适应学习率方案
的
优化器。因此,如果我们将from
keras
.callbacks.ReduceLROnPlateau
与
Adam
优化器或其他优化器一起使用,那么这样做不是毫无意义吗?我没有基于
Keras
的
Optimizer
的
内部工作方式,但在我看来,如
浏览 7
提问于2021-02-23
得票数 4
2
回答
默认
的
Adam
优化器在tf.
keras
中不起作用,但字符串`
adam
`可以
、
、
、
、
我一直在试用TensroFlow v2测试版,我也在试用tf.
keras
型号。model.compile(optimizer='
adam
', loss='categorical_crossentropy')但是,当我尝试使用默认优化器tf.
keras
.optimizers.
Adam
()时,它不能被
训练</em
浏览 32
提问于2019-07-11
得票数 7
回答已采纳
2
回答
改进tensorflow中
的
xor神经网络并以稠密为输入层
、
、
、
我试着在tf中建立一个神经网络,作为初学者
的
挑战,而且我
的
模型不是很好,很多时候它不会很精确(虽然有时精度是1,但大多数时候不是,即使这样损失也很高。)以下是代码:from tensorflow import
keras
model.add(tf.
keras
.Input(shape=(2,)))model.add(
浏览 5
提问于2020-09-07
得票数 0
回答已采纳
1
回答
TensorFlow模型损失
的
近似周期性跳跃
、
、
、
、
我正在使用tensorflow.
keras
来
训练
CNN来解决图像识别问题,使用
Adam
最小化来最小化自定义损失(一些代码在问题
的
底部)。我正在试验我需要在
训练
集中使用多少数据,我认为我应该看看我
的
每个模型是否都正确地收敛了。然而,当绘制不同
训练
集分数
的
损失
与
训练
次数
的
关系图时,我注意到损失函数中存在大约周期性
的
峰值,如下图所示。在这里,不同
的
行显示了不同
的
浏览 19
提问于2020-05-20
得票数 2
2
回答
如何使用on_batch_end回调手动
停止
模型
训练
、
、
如何通过回调on_batch_end提前
停止
训练
模型?我尝试将model.stop_training属性设置为True,但似乎不起作用。下面是我使用
的
代码: callback = LambdaCallback(on_batch_end=lambda batch,logs:self.on_batch_end(batch, logs)) epochs=epochs, callbacks=[cal
浏览 103
提问于2020-07-07
得票数 0
回答已采纳
1
回答
“太早”在
Keras
早停
、
、
我在用
Keras
训练
神经网络,使用早期
停止
。然而,当
训练
的
时候,网络很早就到达了一个点,验证损失是不自然
的
低,这会在一段时间后变平,就像这样。 在patience = 50中使用早期
停止
时,验证损失会减少,但从一开始就不会低于验证损失。我对网络进行了多次
训练
,结果是相同
的
,使用
的
是rmsprop (学习率为0.1到1e-4)和
adam
优化器。
浏览 0
提问于2019-05-28
得票数 3
回答已采纳
点击加载更多
相关
资讯
使用Java部署训练好的Keras深度学习模型
用Keras训练神经网络时一些麻烦的地方
深度学习中的正则化技术 附Python代码
深度学习中的正则化技术
Keras,简洁易用的深度学习API,快速构建神经网络!
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券