腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Optuna
超
参数
优化
:
在
目标
函数
之外
定义
超
参数
空间
、
有人知道如何使用
Optuna
API
在
目标
函数
之外
定义
超
参数
空间
吗?iter(list_forecasts), num_series=len(testing_data)) return agg_metrics[self.metric] 我希望通过初始化
目标
类来提供
超
参数
空间
所以我可以
在
optuna
的
目标
浏览 30
提问于2020-12-16
得票数 0
1
回答
在
Optuna
试用对象已经建议了值之后,我能覆盖它的
超
参数
吗?
、
、
偶尔,
Optuna
会提出一个我并不真正想评估的示例--通常是因为它与先前评估过的解决方案相同或过于接近。在这种情况下,我想用随机抽样代替。是否有一种方法可以为一次试验覆盖来自trial.suggest_float()的建议值(例如),并将其传递回
优化
器?eval_check(),它获取一个变量列表并确定是否应该评估该样本,返回True (如果要评估)和False (如果没有);和evaluate() (获取变量列表并对它们进行评估),返回一个实数--下面是我试图实现的
目标
的草图=1000) 现在,我知道这不能像我想要的那样工作,因为,假设<
浏览 10
提问于2022-04-05
得票数 0
1
回答
用于DNN的Pytorch和
Optuna
的结果重现性
、
、
、
我找到了7个
超
参数
的最优结果,即:使用
Optuna
多
目标
优化
。我把培训和验证损失最小化作为我的
目标
。由于调优
参数
的数量更多,所以我将每个路径的历元数减少为50。然后,我得到了最佳的
参数
,后
Optuna
优化</e
浏览 4
提问于2021-12-30
得票数 0
1
回答
用
optuna
定义
回归问题的
超
参数
搜索
空间
、
、
、
、
该演示了如何使用sklearn解决回归问题,并使用
Optuna
优化
LightGBM模型的
超
参数
。我立即注意到的一件事是,
在
训练回归模型之前,它们不对任何
参数
进行规范化。我也
在
试图传递论点(不。节点,不。层,激活
函数
,学习速率)到objective
函数
,
在
2.我正在阅读,我对如何将
超
参数
搜索
空间
合并到objective
函数
感到困惑。
浏览 1
提问于2021-06-18
得票数 0
1
回答
如何在
Optuna
SuccessiveHalvingPruner()中设置最小时间?
、
、
、
我使用
Optuna
2.5来
优化
tf.keras CNN模型上的几个
超
参数
。我想使用剪枝,以便
优化
跳过
超
参数
空间
中不太有希望的角。reduction_factor=4, min_early_stopping_rate=0),有时模型
在
两个周期之后停止,另一些时候
在
12个时代之后停止,48个等等。我猜想
参数</e
浏览 5
提问于2021-02-16
得票数 1
回答已采纳
1
回答
在
Optuna
中有没有等同于hyperopts lognormal的东西?
、
、
、
我正在尝试使用
Optuna
对我的模型进行
超
参数
调整。 我被困在一个地方,我想
定义
一个具有对数正态/正态分布的搜索
空间
。这在使用hp.lognormal的hyperopt中是可能的。可以使用
Optuna
的现有suggest_ api的组合来
定义
这样的
空间
吗?
浏览 14
提问于2021-01-18
得票数 0
回答已采纳
1
回答
如何使用
optuna
或hyperopt调整条件
目标
函数
、
我尝试使用
optuna
来调优
超
参数
。但我的
目标
函数
是有条件的,这会在获取最佳
参数
时产生问题。UnboundLocalError:赋值前引用的局部变量“”cwc_train“” define objective (trial):fc.CWC_proposed(predict_bound_trai
浏览 2
提问于2019-07-29
得票数 1
1
回答
当将
optuna
用于hydra时,我可以从另一个配置文件中导入搜索
空间
吗?
、
、
我想对同一数据进行多个时间序列预测模型的
超
参数
优化
。我在为九头蛇使用插件。不同的模型具有不同的
超
参数
,因此搜索
空间
也不同。目前,我的配置文件如下所示: - datasets: data - override hydra/sweeper:
optuna
# - 'additive' # - 'multipli
浏览 25
提问于2022-03-07
得票数 0
回答已采纳
1
回答
指定要搜索的固定
参数
和
参数
(lightgbm)
、
、
我刚刚找到了
Optuna
,它们似乎与lightGBM集成了,但是我很难看到我可以在哪里修复
参数
,例如scoring="auc",以及在哪里可以
定义
一个搜索网格
空间
,例如num_leaves=[1,2,5,10以为例,他们只
定义
一个带有一些固定
参数
的params dict (是否所有
参数
都未在该dict中指定?),并且声明: 它以逐步的方式调整重要的
超
参数
(例如min_child_samples和feature_fr
浏览 3
提问于2020-11-09
得票数 1
1
回答
在
Optuna
研究期间,当我动态添加/删除
参数
时会发生什么?
、
在
一项研究中,
Optuna
的FAQ有一个动态调整
参数
范围的:它没有问题,因为每个采样器都是单独
定义
的。 但是添加和/或删除
参数
呢?
Optuna
有能力处理这种调整吗?
在
进行此操作时,我注意到的一件事是,
在
结果数据中,这些
参数
获取nan条目以供其他试验使用。能够将这些nan设置为它们
在
未被采样时所具有的(默认值)值,会有什么好处?
浏览 6
提问于2020-12-18
得票数 1
回答已采纳
2
回答
多个训练/多个神经网络初始化每一个
超
参数
验证与
Optuna
和剪枝
、
、
我只是做我的第一个ML与
optuna
项目。我的问题是,如何探索一组多个NN初始化的
超
参数
,其中每次
在
一次试验中运行仍然需要修剪? 我假设初始化有相当大的影响,我不想因为运气不好而淘汰好的HP。
目标
函数
是基于迭代求和计算结果,采用剪枝的方法。不幸的是,由于随机偏移,
目标
函数
存在噪声。这是用来比喻训练神经网络的。迭代是训练回路,x是
超
参数
,偏移量是网络的随机初始化。由噪声引起的问题是,你不能确定一个
超
<
浏览 23
提问于2022-01-24
得票数 1
1
回答
.jsonnet文件可以用纯python构建吗?
、
、
、
我使用.jsonnet文件作为AllenNLP模型配置的模板 我使用
Optuna
包搜索
超
参数
空间
,并使用建议的
超
参数
extVar对每个步骤的模板进行评估,然后训练一个模型并将其保存到归档中。问题是,除了
超
参数
之外
,我的.jsonnet配置的某些部分还包括相对于extVar变量(我的包中的目录)的文件路径。
浏览 37
提问于2021-07-15
得票数 0
1
回答
如何使用自
定义
模型评估算法对
超
参数
进行
优化
?
在
我的模型评估算法中,我希望得到验证数据的模型预测,并应用一种基于验证数据和预测的模型和模拟现实场景的算法。
在
我的场景中,评估算法不仅依赖于真实
目标
值(y_true)和预测(y_pred),而且还依赖于输入验证数据(X)来输出最终的模型得分。因此,对于我的用例,我似乎不能使用带有自
定义
度量的估计器。实现评估/评分算法对我来说很简单,但如何将评估算法的输出传递给ML引擎的
超
参数
优化
任务,从而使其能够
在
超
参数
调
浏览 5
提问于2018-12-15
得票数 1
回答已采纳
1
回答
在生产流水线中使用
超
参数
调优是一个很好的实践吗?
、
、
我正在学习扩展的TensorFlow,我可以看到它的训练管道包括一个用于
超
参数
调优的"Tuner“组件。因此,我想知道在生产管道的情况下,包含调优是否是一个很好的实践(
在
大多数情况下,这是通过额外的新培训实例不时迭代地调用的)。我可以看到三种可能性:混合物的一些因素:
在
最初的单独实验中看到某种程度的调优,但在生产中仍然对其他
浏览 0
提问于2022-02-23
得票数 0
1
回答
optuna
.integration.TorchDistributedTrial支持多项式
优化
吗?
、
、
、
integration.TorchDistributedTrial支持多项式
优化
吗? 我
在
SLURM集群上使用
Optuna
。假设我想使用两个具有两个gpus的节点进行分布式
超
参数
优化
。这个假设是正确的,还是除了TorchDistributedTrial要求将None传递给0以外的objective调用
之外
,还需要编辑。
浏览 14
提问于2022-11-02
得票数 0
回答已采纳
2
回答
禁用特定代码行的日志记录
、
、
我正在调整word2vec模型的
超
参数
。Word2Vec
在
控制台上有太多的日志,我无法读取
Optuna
或我的自
定义
日志。有什么技巧可以抑制Word2Vec生成的日志吗?
浏览 27
提问于2021-11-19
得票数 1
回答已采纳
2
回答
如何在python中训练大数据集上的随机森林?
、
、
、
np.random.random_sample((20,4)), columns=list('ABCD')) rf_predictions = best_rf_model.predict(test_data_shuffled.iloc[:,:-1]) 有什么方法可以
在
1M乘以1K的数据集上
在
合理
浏览 22
提问于2021-08-05
得票数 0
1
回答
异步
超
参数
优化
-迭代之间的依赖关系
、
、
、
当使用异步
超
参数
优化
包(如scikit
优化
包或带有交叉验证的hyperopt包(例如cv =2或4)并将迭代次数设置为N(例如N=100)时,如果我期望:或 期望迭代之间的独立性,在所有100次
浏览 0
提问于2020-03-11
得票数 1
回答已采纳
3
回答
是否有办法将
参数
传递给多个
optuna
作业?
、
、
、
我试图使用
optuna
搜索
超
参数
空间
。CUDA_VISIBLE_DEVICES=0
optuna
study optimize foo
浏览 7
提问于2020-05-12
得票数 3
回答已采纳
2
回答
机器学习算法的
超
参数
优化
、
、
、
我有一个关于机器学习算法的
超
参数
优化
的问题。如果20%的观察结果是“红色”,80%是“黑色”,那么一个非常糟糕的分类器就会将每一种情况标为“黑色”,平均而言,交叉验证损失为20%。现在我的问题是:如果我看到我的超级
参数
优化
的
目标
没有明显下降到20%以下,我可以推
浏览 0
提问于2018-06-15
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Optuna,一个超参数优化Python库!
使用Optuna进行PyTorch模型的超参数调优
召唤超参调优开源新神器:集XGBoost、TensorFlow、PyTorch、MXNet等十大模块于一身
三行代码,AutoML性能提高十倍!微软开源FLAMA,比sota还要sota
TorchOptimizer:基于贝叶斯优化的PyTorch Lightning超参数调优框架
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券