腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2676)
视频
沙龙
1
回答
Keras
中
的
Tensorflow
adam
优化
器
、
、
、
、
我
在
Tensorflow中有一个net,我正在尝试
在
Keras
中
重新实现它。目前,与Tensorflow模型相比,
Keras
模型
的
表现完全不佳。与原始模型相比,
损失
要高得多,并且下降得更慢。我最好
的
猜测是我用错了优化
器
。
在
Tensorflow代码
中
,优化
器
如下所示:<em
浏览 17
提问于2018-09-04
得票数 5
1
回答
在
Keras
中
使用
带有
Adam
Optimizer
的
"
Learning
Rate
Step
Decay
“
调度
器
的
Nan
损失
?
、
、
、
、
(
learning
_
rate
=0.1,
decay
=
decay
), # in caso def __init__(self, initAlpha=0.1, factor=0.25, dropEvery=30):,我得到了&
浏览 44
提问于2021-01-28
得票数 0
回答已采纳
6
回答
Keras
:改变学习速度
、
、
在
我
的
模型以不同
的
学习速度训练后,我正在尝试改变它
的
学习速度。model.
optimizer
.
learning
_
rate
.set_value(0.1)model.
optimizer
.
learning
_
rate
= 0.1 K.set_value(model.
optimize
浏览 9
提问于2020-01-14
得票数 41
回答已采纳
2
回答
Tensorflow对象检测:
使用
Adam
而不是RMSProp
、
我在用这个.config文件训练CNN rms_prop_
optimizer
:{
learning
_
rate
:{ exponential_
decay
_
learning
_
rate
{ initial_
learning
_
rate
: 0.004
decay
_steps: 800720
decay
_factor: 0.95 } momentum_
optimizer
_value: 0.9衰变: 0.9 ep
浏览 0
提问于2018-08-19
得票数 6
回答已采纳
2
回答
在
TensorFlow2
中
使用
学习率计划和学习率预热
、
、
我必须
使用
学习率预热,您可以
使用
学习率预热开始训练CIFAR-10
的
VGG-19 CNN,在前10000次迭代(或大约13个时期)
中
从0.00001到0.1%
的
学习率。然后对于剩余
的
训练,您
使用
学习率0.01,其中学习率衰减用于
在
80和120个时期将学习率降低10倍。该模型必须训练总共144个时期。如何在代码
中
同时
使用
学习率预热和学习率衰减?目前,我
使用
学习率衰减: boundaries = [10
浏览 62
提问于2020-08-02
得票数 3
1
回答
如何将更多
的
参数传递给
调度
程序?
、
、
我正在学习示例,但我不确定
调度
器
函数是如何同时接收时代和学习速率(lr)
的
。它们是怎么通过
的
?我怎样才能传递更多
的
论据呢?我试着遵循这个例子,并收到了一个错误,上面说
调度
程序收到了额外
的
参数"lr",所以我不知道如何解决这个问题。
浏览 8
提问于2021-12-14
得票数 1
回答已采纳
1
回答
如何在GradientTape中将"
step
“传递给ExponentialDecay
、
我尝试
使用
optimizers.schedules.ExponentialDecay作为
learning
_
rate
到Adm
的
优化
器
,但我不知道如何在GradientTape
中
训练模型时传递“步骤”给它我
使用
tensorflow-gpu-2.0-alpha0和python3.6。initial_
learning
_
rate
= 0.1 lr_schedule = tf.
keras
.optimizers.schedules
浏览 22
提问于2019-05-15
得票数 3
1
回答
TF告诉我
使用
Keras
优化
器
,当我改变它时告诉我相反
的
情况?
、
= 0.001(2)
optimizer
= tf.
keras
.optimizers.
Adam
(lr=
learning
_
rate
,
decay
=1e-6) model.compile(loss='mean_squared_error',
optimizer
=
optimizer</
浏览 0
提问于2019-02-20
得票数 3
回答已采纳
2
回答
在
tensorflow对象检测
中
更改优化
器
、
、
、
如何更改配置
的
优化
器
train_config: {
optimizer
{
learning
_
rate
: { initial_
lear
浏览 0
提问于2019-05-16
得票数 1
2
回答
基于批次而不是历元
的
指数衰减学习率
、
、
、
、
我希望有一个基于时间步长
的
自适应学习速度,而不是基于时间
的
学习速度,不像大多数
调度
程序是基于时间
的
。= CustomSchedule() opt = tf.
keras
.optimizers.
Adam
(self.
learning
_
rate
) model = Model,如果我说
的
是
step
%100==0,那么学习率就会以
learning
_
rate
&
浏览 7
提问于2020-12-31
得票数 1
回答已采纳
1
回答
如何在Tensorflow中
使用
adam
-
optimizer
设置步数?
、
在
TensorFlow训练
中
,当
使用
配置文件
中
的
动量优化
器
时,我可以设置步数。manual_
step
_
learning
_
rate
{ schedule {没有这个选项 batch_size: 1
adam
浏览 15
提问于2018-02-07
得票数 1
2
回答
亚当优化
器
的
重量衰减
的
正确方法是什么?
、
、
、
、
由于保留了一对运行平均值,比如梯度
的
均值/方差,我想知道它应该如何正确地处理重量衰减。我看到了两种实施方法。 根据目标
损失
+正则化
损失
从梯度
中
更新均值/方差,并像往常一样更新权重。param.wd)*权重;//物料分配(out,req,权重-标量(param.l
浏览 8
提问于2017-06-09
得票数 24
回答已采纳
1
回答
如何在
Keras
DQN
中
实现梯度上升
、
、
、
、
我
在
Keras
中
的
DQN模型存在一些问题,这意味着尽管该模型运行,但在epsilon
的
单个和多个周期中,平均回报会随着时间
的
推移而减少。即使经过长时间
的
训练,这一点也不会改变。 ? ? 我
的
想法是,这是由于
在
Keras
中
使用
MeanSquareError作为
损失
函数(最小化误差)。所以我正在尝试实现梯度上升(以最大化回报)。如何在
Keras
中</
浏览 47
提问于2020-11-23
得票数 0
回答已采纳
1
回答
如何在tf2.2
中
使用
CosineDecayRestarts
name="preds")([p1, p2]) #model.compile(loss=qloss,
optimizer
="
adam
", metrics=[score])
optimizer
=tf.
keras
.optimizers.
Adam
(lr=tf.
keras
浏览 86
提问于2020-08-31
得票数 0
5
回答
从tf.train.AdamOptimizer获取当前学习率
我想打印出我
的
神经网络
的
每个训练步骤
的
学习率。 我知道
Adam
有一个自适应
的
学习率,但是有没有一种方法可以让我看到这一点(
在
tensorboard
中
可视化)
浏览 102
提问于2016-05-03
得票数 35
回答已采纳
2
回答
自定义Tensorflow
Keras
-TypeError
中
的
model.fit():TypeError: compile()获得意外
的
关键字参数'
optimizer
‘
、
、
我正在尝试通过修改
Keras
中
的
model.fit()来实现我自己
的
重量训练算法。我读过来自
Keras
的
文章,它基于GANs很好地解释了这一点。不过,我现在面对
的
问题是:TypeError: compile() got an unexpected keywor
浏览 0
提问于2020-06-30
得票数 2
2
回答
在
TensorFlow/
Keras
中
,当
使用
学习率衰减时,恢复训练时
的
行为是什么?
、
、
、
我很难理解当模型从磁盘加载时,当
使用
像下面这样
的
调度
器
时,训练将如何恢复。
learning
_
rate
_scheduler = tensorflow.
keras
.optimizers.schedules.ExponentialDecay(
decay
_steps=1000, staircase=True) 考虑这个假设
的
情况,我训练了一个时期
浏览 98
提问于2021-03-01
得票数 1
回答已采纳
9
回答
ImportError:无法从“
keras
.optimizers”导入名称“
adam
”
我正在尝试导入
Keras
,但是我得到了以下错误:在这里调用导入: from tensorflow import
keras
浏览 3
提问于2020-07-03
得票数 66
回答已采纳
1
回答
Tensorflow 2.2.0和
Keras
保存模型/负载模型问题
、
、
、
、
在
我
的
keras
中
添加自定义丢失函数@tf.function后,
keras
模型停止加载(似乎保存模型,但不能重新加载模型)。文件显示这很简单但是..。各种这样
的
答案表明,
使用
一个
Keras
版本训练
的
模型不能加载到其他
Keras
版本
中
。有什么解决方案可以简单地保存模型,然后
在
tf 2.2.0
中
重新加载模型(
使用
Keras
2.3.0
浏览 4
提问于2020-11-26
得票数 2
回答已采纳
1
回答
验证
损失
和准确性上升
、
、
我
使用
MLP进行分类。这是我
的
模型
keras
.layers.Flatten(input_shape=(X.shape[1], X.shape[2])),
decay
_
rate
=0.96, staircase=True) model.c
浏览 0
提问于2020-10-29
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Optuna进行PyTorch模型的超参数调优
使用TensorBoard进行超参数优化
7个流行的强化学习算法及代码实现
3行代码提速模型训练:这个算法让你的GPU老树开新花
使用GaLore在本地GPU进行高效的LLM调优
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券