腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Optuna
多目标
优化
的
最佳
参数
、
、
使用
Optuna
执行单目标
优化
时,可以使用以下方法获取研究
的
最佳
参数
: import
optuna
x = trial.suggest_uniform('x', -10, 10)study.optimize{'x
浏览 185
提问于2021-01-22
得票数 0
回答已采纳
1
回答
用于DNN
的
Pytorch和
Optuna
的
结果重现性
、
、
、
我找到了7个超
参数
的
最优结果,即:使用
Optuna
多目标
优化
。我把培训和验证损失最小化作为我
的
目标。由于调优
参数
的
数量更多,所以我将每个路径
的
历元数减少为50。然后,我得到了
最佳
的
参数</em
浏览 4
提问于2021-12-30
得票数 0
1
回答
如何利用
Optuna
确定无目标函数
的
参数
集
的
最优性
、
我想使用来确定以下数据集
的
最佳
值:利用这些
参数
求出柱
优化
的
最优值。现在
的
clou是,这些最优值是不知道
的
,直到一个设备使用
参数
在这些设置下运行,并在这些
参数
上显示这个特定
的
最优值。我
的
问题是我不知道如何用
Optuna
来实现这一点。我看了一下教程,但不知道哪一个与我
的
任务相匹配?我在上见过You can apply
Optuna
’s h
浏览 19
提问于2022-05-25
得票数 0
1
回答
如何在
Optuna
SuccessiveHalvingPruner()中设置最小时间?
、
、
、
我使用
Optuna
2.5来
优化
tf.keras CNN模型上
的
几个超
参数
。我想使用剪枝,以便
优化
跳过超
参数
空间中不太有希望
的
角。我用
的
是这样
的
东西 storage=storage_namesampler=TPESampler(n_startup_trials
浏览 5
提问于2021-02-16
得票数 1
回答已采纳
1
回答
Optuna
示例返回测试集
的
评估度量,这是一个缺陷吗?
、
、
、
我正在使用
Optuna
对一些模型进行
参数
优化
。在训练集
的
简历上进行
优化
将会更加稳健。我想听听其他
的
想法,并检查我是否遗漏了什么。 谢谢!
浏览 0
提问于2020-01-31
得票数 1
1
回答
在
Optuna
试用对象已经建议了值之后,我能覆盖它
的
超
参数
吗?
、
、
偶尔,
Optuna
会提出一个我并不真正想评估
的
示例--通常是因为它与先前评估过
的
解决方案相同或过于接近。在这种情况下,我想用随机抽样代替。是否有一种方法可以为一次试验覆盖来自trial.suggest_float()
的
建议值(例如),并将其传递回
优化
器?=1000) 现在,我知道这不能像我想要
的
那样工作,因为,假设
Optuna
trial对象建议样本[0.5, 15, 'cat2'],但是eval_check不喜欢这个样本,所以建议随机样本[0.2,
浏览 10
提问于2022-04-05
得票数 0
1
回答
.jsonnet文件可以用纯python构建吗?
、
、
、
我使用.jsonnet文件作为AllenNLP模型配置
的
模板 我使用
Optuna
包搜索超
参数
空间,并使用建议
的
超
参数
extVar对每个步骤
的
模板进行评估,然后训练一个模型并将其保存到归档中。问题是,除了超
参数
之外,我
的
.jsonnet配置
的
某些部分还包括相对于extVar变量(我
的
包中
的
目录)
的
文件路径。这些文件路径也会被渲染,最后我
的
model.tar.gz中有
浏览 37
提问于2021-07-15
得票数 0
1
回答
TPE (来自
Optuna
)是否考虑了试验
的
数量?
、
、
我正在使用
optuna
的
TPE采样器来
优化
深度学习视觉模型
的
超
参数
。我想知道
optuna
是否适应搜索取决于试验
的
数量。我对TPE
的
工作原理只有基本
的
了解。 谢谢。
浏览 4
提问于2020-08-06
得票数 1
1
回答
Keras序列模型
的
结果不能与相同数据集和使用
Optuna
优化
的
参数
的
结果完全不一致
、
、
、
、
我正在使用
Optuna
来
优化
它
的
超
参数
,并减少
Optuna
优化
器中
的
rmse。然而,当我从
Optuna
中重新创建具有
最佳
参数
的
Keras模型,并使用与
Optuna
目标函数相同
的
数据集进行重新拟合和预测时,我得到
的
结果非常不一致。使用
最佳
参数
进行改装和预测。y_pred_test, df_copy)#invers
浏览 1
提问于2022-03-15
得票数 0
1
回答
在生产流水线中使用超
参数
调优是一个很好
的
实践吗?
、
、
我正在学习扩展
的
TensorFlow,我可以看到它
的
训练管道包括一个用于超
参数
调优
的
"Tuner“组件。因此,我想知道在生产管道
的
情况下,包含调优是否是一个很好
的
实践(在大多数情况下,这是通过额外
的
新培训实例不时迭代地调用
的
)。我可以看到三种可能性: 在生产前进行单独
的
超
参数
调优实验,而在生产管道中不进行调优(这是我以前经常使用
的
)。没有初始调谐-实验,但让TFX一直这样做(这似乎支持TF
浏览 0
提问于2022-02-23
得票数 0
1
回答
从最优超
参数
的
字典项创建列表
、
、
、
我正在使用
optuna
框架为我想要
的
CNN网络选择
最佳
参数
,包括层数、层中
的
过滤器、
优化
器等。我可以确认我
的
最佳
参数
是包含以下内容
的
字典: study =
optuna
.create_study() '
浏览 7
提问于2021-03-23
得票数 0
2
回答
Python: LightGBM超
参数
调优值错误
、
、
、
、
Best score reached: {} with params: {} '.format(gs.best_score_, gs.best_params_))我试图实现以下链接中给出
的
解决方案
浏览 12
提问于2021-04-08
得票数 1
1
回答
如何提高演替者
的
能力?
、
、
在这种情况下,我被应用了一个cat递推回归器,它给了我相当好
的
R2(98.51)和MAE (3.77)。其他节点LGBM,XGBOOST在catboost下执行。现在,我想增加R2值,降低MAE,以获得更精确
的
结果。这也是我们
的
要求。我多次通过添加“损耗_函数”:'MAE',‘L2_叶子_reg’:3,‘随机强度’:4,‘套袋_温度’:0.5来调整不同
的
值,但性能是相同
的
。
浏览 1
提问于2021-03-02
得票数 4
回答已采纳
1
回答
光学金枪鱼超
参数
搜索不可重复中断/恢复研究
、
、
、
、
对于具有多个
参数
的
大型ML模型,如果能够中断并恢复超
参数
优化
搜索,将是很有帮助
的
。
Optuna
允许使用RDB后端进行此操作,该后端将研究结果存储在SQlite数据库()中。Expect:对于一个固定
的
种子,n_trials = x
优化
运行
的
结果与使用n_trials = x/5
的
学习相同,恢复5次,学习被KeyboardInterrupt中断5次,恢复5次直到n_trials在一项研究中展示了所有试验<em
浏览 10
提问于2022-08-11
得票数 0
回答已采纳
1
回答
多gpu机上
的
pytorch并行超
参数
优化
、
、
、
我可以访问一个多gpu机器,我正在运行一个网格搜索循环
的
参数
优化
。我想知道我是否可以同时在多个gpu上分发多个循环
的
迭代,如果可以的话,我如何做到(我
的
机制是什么?穿线?
浏览 5
提问于2020-06-23
得票数 1
2
回答
自动选择超
参数
、
、
、
、
我注意到有很多超
参数
需要手动设置,这取决于您试图解决
的
问题
的
类型,您正在处理
的
数据集,等等。 我想知道是否有一种方法可以创建另一个
优化
模型,使其自动找到训练所需
的
最佳
超
参数
?我
的
意思是,我们可以通过梯度下降或其他方法找到合适
的
权重。所以,如果我们能在超
参数
上找到某种代价函数,我们不也能做到吗?基本上就像AI程序调整我们
的
AI模型一样。这样
的
事情是可能
的</
浏览 39
提问于2020-01-18
得票数 1
回答已采纳
1
回答
基于精度
优化
超
参数
的
正确方法
、
、
、
我正在使用optunta + catboost来
优化
和训练一些增强
的
树。我想知道
优化
超
参数
的
正确方法,以最大限度地提高准确性(而不是最小化对数损失)。目前,我
的
代码是: def objective(trial): 'depth' = trial.suggest_int('depth', 4, 9),test-Accuracy-mean']) trial.report(acc, st
浏览 19
提问于2021-07-01
得票数 1
1
回答
当将
optuna
用于hydra时,我可以从另一个配置文件中导入搜索空间吗?
、
、
我想对同一数据进行多个时间序列预测模型
的
超
参数
优化
。我在为九头蛇使用插件。不同
的
模型具有不同
的
超
参数
,因此搜索空间也不同。目前,我
的
配置文件如下所示: - datasets: data - override hydra/sweeper:
optuna
# - 'additive' # - '
浏览 25
提问于2022-03-07
得票数 0
回答已采纳
2
回答
自动超
参数
整定
、
是否有任何先进
的
软件包允许对神经网络进行自动超
参数
调整,以及传统
的
机器学习算法,如XGBoost、随机林(使用贝叶斯、随机搜索等方法,可以更快地发现最优
参数
)?我听说过hyperopt,但似乎有一些问题,我不确定它能不能训练传统
的
机器学习算法?
浏览 0
提问于2018-01-26
得票数 4
2
回答
如何从加权分类分布中抽取
Optuna
参数
?
我有一个非常复杂
的
树结构搜索空间。在顶层,我需要做一个明确
的
选择-
参数
的
子空间去探索。作为一个简单
的
例子,您可以想象我需要在使用线性回归、支持向量机或某种神经网络之间作出决定。每个子空间都有一个非常不同
的
大小,我希望
Optuna
(我正在考虑使用TPESampler)花更多
的
时间来探索更大
的
空间。我可以想象,请求一个随机浮动并将其映射到正确
的
类别,但它有一些明显
的
问题,包括:很难查看结果;采样器实际
浏览 2
提问于2021-07-12
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Optuna进行PyTorch模型的超参数调优
强化学习中的多目标优化策略研究
召唤超参调优开源新神器:集XGBoost、TensorFlow、PyTorch、MXNet等十大模块于一身
如何快速优化机器学习的模型参数
选择参数优化 Azure 机器学习中的算法
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券