腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
使用
ADAM
优化
器
时
,
真的
有
必要
调整
/
优化
学习
率
吗
?
、
、
在
tensorflow/keras中
使用
ADAM
作为
优化
器
时
,
真的
有
必要
优化
初始
学习
率
吗
?如何做到这一点(
在
tensorflow 2.x中)?
浏览 282
提问于2020-06-14
得票数 0
1
回答
学习
速率
在
LSTM中的衰减
、
、
tensorflow中已经实现了一些代码,我所指的代码是在上,我对decay.In的
学习
率
有
一个疑问,
优化
器
的代码被定义为AdamOptimizer。当我浏览代码
时
,我看到了如下一行: sess.run(tf.assign(model.lr, args.learning_rate* (args.decay_rate ** e))) 其通过衰减常数来
调整
学习
率</e
浏览 7
提问于2016-08-02
得票数 1
回答已采纳
2
回答
如何
使用
keras对初始v3进行微调以进行多类分类?
、
、
我想
使用
Keras来做两类图像分类,
使用
来自Kaggle.com的猫和狗数据集。但是我对下面的代码中的参数"class_mode“
有
一些问题。如果我
使用
“二进制”模式,准确
率
约为95%,但如果我
使用
“分类”模式,准确
率
就会异常低,只有50%以上。 二进制模式意味着最后一层只有一个输出,并
使用
sigmoid激活进行分类。分类表示最后一层的两个输出,并
使用
softmax激活进行分类。样本的标签是一种热格式,例如(1,0),(0,
浏览 19
提问于2017-08-24
得票数 5
1
回答
自
调整
优化
器
在
PyTorch中的应用
、
、
、
在
PyTorch中,权重
调整
策略由
优化
器
确定,
学习
速率由调度程序
调整
。当
优化
器
是SGD
时
,只有一个
学习
速率,这很简单。当
使用
Adagrad,
Adam
,或任何类似的
优化
器
来根据参数来
调整
学习
速度
时
,
有
什么特别值得注意的
吗
?我是否可以完全忽略调度程序,因为算法<
浏览 2
提问于2020-02-14
得票数 4
回答已采纳
1
回答
基于批处理大小的性能指标发生显著变化
、
、
数据集
有
15000个观测值,我把它分成了一个训练、验证和测试集(分层的)。问题是,我的培训和验证损失根据批处理大小(
在
DataLoader中传递)发生了很大的变化。如果
使用
的批处理大小为64,则损失函数如下所示这很奇怪。我还看到,训练集达到一个较高的召回
率
相当快(
在
~4个时代之后),而验证集的改进缓慢。因此,似乎也存在一个过度
浏览 0
提问于2021-04-16
得票数 1
回答已采纳
2
回答
Keras中
Adam
优化
器
的衰减参数
、
、
我认为
Adam
优化
器
的设计使得它能够自动
调整
学习
速度。但是
有
一个选项可以显式地提到Keras中
Adam
参数选项中的衰变。我想澄清衰变对Keras中
Adam
优化
器
的影响。如果我们
在
lr = 0.001 0.001上用衰减式0.001.0 1编译模型,然后拟合该模型运行50次,那么
在
每一
时
期后,
学习
率
会降低0.0 1倍
吗</
浏览 3
提问于2020-02-02
得票数 6
回答已采纳
2
回答
最佳强化
学习
优化
器
、
我正在为一个机器人应用程序运行一个SAC强化
学习
器
,取得了一些不错的结果。我选择强化
学习
的原因之一是为了
在
现场
学习
的能力,例如,
调整
以适应机械变化,如磨损的轮胎或车轮稍微偏离对齐。我的强化
学习
器
在
启动
时
恢复它最后保存的权重和重放缓冲区,所以它不需要每次我打开它
时
都重新训练。然而,我关心的一个问题是
优化
器
。自从
ADAM
以来,
优化
<
浏览 3
提问于2020-01-21
得票数 0
2
回答
重新开始
使用
adam
、
、
、
、
我从较高的
学习
率
开始,并且基于验证损失,我需要从较早的快照重新开始训练。 我可以
使用
模型和
优化
器
state_dicts保存/加载快照。这没问题。我的问题是,一旦我重新开始训练,我如何再次设置
adam
的
学习
率
?我应该重新启动
adam
fresh而不是
使用
state_dict,还是应该
使用
optimizer.param_groups[0][‘lr’] = lr通过加载的
优化
<
浏览 6
提问于2019-10-09
得票数 1
1
回答
如何在没有内置衰减
学习
率
的情况下
使用
Tensorflow的AdamOptimizer?
、
、
据我所知,Tensorflow的
Adam
实现将
学习
速度衰减如下:但是,
在
输入
优化
器
之前,我正在尝试手动操作
学习
率
,我希望
优化
器
中的
学习
率
保持不变。有没有办法保持
学习
率
不变?我必须为它写一个新的
优化
器
浏览 3
提问于2018-03-22
得票数 0
2
回答
adam
优化
器
- Keras中
学习
率
的默认值
、
、
、
、
我正在研究一个
使用
转移
学习
的图像分类问题。
使用
的参数如下: model.compile(optimizer = adamOpti, loss= "categorical_crossentropy, metrics = ["accuracy"])
在
测试中,我
使用
了
adam<
浏览 0
提问于2019-05-02
得票数 6
回答已采纳
1
回答
基于两个不同的损失函数进行更新,但在每个函数之后
使用
不同的
优化
器
学习
率
(pytorch)?
、
、
、
我
有
一个如下的设置,在这里我
有
一个外部的for循环迭代
在
epochs上,一个内部的for循环迭代
在
批处理上。但是,我注意到,当我
使用</
浏览 63
提问于2020-05-14
得票数 0
2
回答
Pytorch
Adam
优化
器
的笨拙行为?重启会更好吗?
、
、
、
我正试着用Pytorch训练CNN的文本分类
器
。我像这样
使用
Adam
优化
器
。optimizer = torch.optim.
Adam
(CNN_Text.parameters(), lr=args.lr)所以,我实现了
学习
率
衰减, If curr_loss > val_
浏览 11
提问于2018-12-06
得票数 1
2
回答
Tensorflow:关于
adam
优化
器
的困惑
、
我对
adam
优化
器
在
tensorflow中的实际工作方式感到困惑。但当我调用函数
时
,我会给它一个
学习
率
。我显式地调用每个批处理的函数,如下所示 for batch in data sess.run(train_
adam
_step, feed_dict或
浏览 0
提问于2016-06-16
得票数 15
回答已采纳
7
回答
我们应该对
adam
优化
器
进行
学习
速率衰减
吗
?
、
我正在用
Adam
优化
器
训练一个图像本地化网络,有人建议我
使用
指数衰减。我不想尝试这一点,因为
Adam
优化
器
本身会降低
学习
速度。但那家伙坚持,他说他以前做过。所以我应该这么做,你的建议
有
什么理论依据
吗
?
浏览 8
提问于2016-09-15
得票数 125
回答已采纳
2
回答
一旦损失停止减少,就改变Keras中的
学习
率
、
、
、
、
我是深度
学习
的新手。我构建了一个小型架构,并
使用
Adam
优化
器
对其进行编译,如下所示:#Train
浏览 0
提问于2020-09-03
得票数 0
1
回答
将Keras模型的损失函数乘以某个常数C,并将其
学习
率
除以C
在
Keras中,如果将模型的损失函数乘以某个常数C,并将
学习
率
除以C,那么训练过程中就不会出现差异,这是
真的
吗
?def my_loss(y_true, y_est):
在
第一个场景中,我
使用
学习
率
等于0.005的
Adam
优化
器
,并
使用
该损失函数和
浏览 0
提问于2017-10-18
得票数 1
2
回答
keras CNN具有低而恒定的精度
、
、
、
、
y) 问题是我得到的精度非常低,
在
每个时期都保持相同的值
浏览 10
提问于2017-02-21
得票数 0
1
回答
为什么vSGD
优化
算法不流行?
、
如Schaul &Le村的论文所述 研究结果很清楚:与其他被测试的算法相比,vSGD不需要任何超参数
调整
就能在广泛的测试中提供可靠的良好性能:
学习
率
会自动适应不同的曲率和噪声水平。自动
调整
学习
速度听起来是件大事,但为什么每个人都在
使用
Adam
和其他
优化
器
呢?
浏览 0
提问于2017-10-10
得票数 2
1
回答
数据集训练:
在
参数
调整
和预训练模型上收敛
、
、
我最近完成了一个“相当好的”TF2/keras模型,用于图像识别,
使用
了许多层,SGD
优化
,并从MobileNetv2预训练模型开始。我可以永远
调整
:添加/删除层,不同的
优化
算法,
学习
率
,动量,各种数据集增强,等等。我甚至没有考虑从其他预训练模型开始。我将
优化
器
从SGD改为
ADAM
(应该更好,对吧?)而且它稍微更不准确。这只是一次试错
吗
?训练我的模型需要大约45分钟(10个时期),当我
调
浏览 1
提问于2019-10-26
得票数 0
1
回答
将
优化
器
从
Adam
更改为Nesterov
时
性能较差
、
、
我
在
Pytorch上运行了一个基于Linknet架构的图像分割代码。
优化
器
初始设置为: self.optimizer = torch.optim.
Adam
(params=self.net.parameters(), lr=lr) 然后我将其更改为Nesterov以提高性能self.optimizer = torch.optim.SGD(params=self.net.parameters(), lr=lr, momentum=0.9, nesterov=True) 然而,
使用
当我
使用
<e
浏览 45
提问于2021-08-30
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
优化器怎么选?一文教你选择适合不同ML项目的优化器
一位ML工程师构建深度神经网络的实用技巧
千万小时机器学习训练后,我从趟过的坑中学习到的 16 个技巧!
浅谈神经网络优化方式
这7 个深度学习实用技巧,你掌握了吗?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券