腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
optuna
LightGBMTunerCV
作为
进一步
使用
optuna
进行
搜索
的
起点
、
、
optuna
中
的
LightGBMTunerCV
提供了一个很好
的
起点
,但在此之后,我想更深入地
搜索
(而不会丢失自动调谐器所学到
的
内容)。此外,我想
使用
平均交叉验证分数+交叉验证分数
的
标准差
作为
我对模型
进行
排名
的
指标(即,我假设较低
的
SD是在相同分布
的
未见数据上更稳定性能
的
良好迹象)。,
浏览 32
提问于2020-09-14
得票数 3
1
回答
在
Optuna
中有没有等同于hyperopts lognormal
的
东西?
、
、
、
我正在尝试
使用
Optuna
对我
的
模型
进行
超参数调整。 我被困在一个地方,我想定义一个具有对数正态/正态分布
的
搜索
空间。这在
使用
hp.lognormal
的
hyperopt中是可能
的
。可以
使用
Optuna
的
现有suggest_ api
的
组合来定义这样
的
空间吗?
浏览 14
提问于2021-01-18
得票数 0
回答已采纳
2
回答
Python: LightGBM超参数调优值错误
、
、
、
、
Best score reached: {} with params: {} '.format(gs.best_score_, gs.best_params_))我试图实现以下链接中给出
的
解决方案
浏览 12
提问于2021-04-08
得票数 1
1
回答
抑制optunas cv_agg
的
binary_logloss输出
、
、
如果我
使用
LightGBMTunerCV
对模型
进行
调优,我总是得到cv_agg
的
binary_logloss
的
大量结果。如果我用一个更大
的
数据集来做这件事,这个(不必要
的
) io会降低优化过程
的
性能。as lgbwarnings.simplefilter(action='ignore', category=FutureWarning)feature_n
浏览 2
提问于2021-11-24
得票数 2
回答已采纳
1
回答
用
Optuna
对num_iterations和learning_rate在LightGBM上
进行
调谐
、
我想请
Optuna
在LightGBM
的
超参数上对num_iterations和learning_rate
进行
调优,以检查学习速度和准确性之间
的
平衡。 return cv_score study =
optuna
.create_study既然我们知道这样一条规则,也许就
浏览 7
提问于2022-09-30
得票数 0
1
回答
与目标“二进制:逻辑”一起
使用
的
默认评估标准从“错误”更改为“日志丢失”。
、
、
在
使用
optuna
进行
超参数调优之后,我正在尝试将XGBClassifier与我
的
数据集相匹配,并且我一直收到以下警告: xgbc_
optuna
_mse1 = mean_squared_error(test_y, xgbc_
optuna
_pre
浏览 3
提问于2021-08-04
得票数 7
回答已采纳
2
回答
如何从加权分类分布中抽取
Optuna
参数?
我有一个非常复杂
的
树结构
搜索
空间。在顶层,我需要做一个明确
的
选择-参数
的
子空间去探索。
作为
一个简单
的
例子,您可以想象我需要在
使用
线性回归、支持向量机或某种神经网络之间作出决定。每个子空间都有一个非常不同
的
大小,我希望
Optuna
(我正在考虑
使用
TPESampler)花更多
的
时间来探索更大
的
空间。我可以想象,请求一个随机浮动并将其映射到正确
的
类别,但它有一些明显<
浏览 2
提问于2021-07-12
得票数 1
1
回答
用于DNN
的
Pytorch和
Optuna
的
结果重现性
、
、
、
我找到了7个超参数
的
最优结果,即:
使用
Optuna
多目标优化。我把培训和验证损失最小化
作为
我
的
目标。由于调优参数
的
数量更多,所以我将每个路径
的
历元数减少为50。然后,我得到了最佳
的
参数,后
Optuna
优化。我增加了时代
的</em
浏览 4
提问于2021-12-30
得票数 0
3
回答
是否有办法将参数传递给多个
optuna
作业?
、
、
、
我试图
使用
optuna
搜索
超参数空间。CUDA_VISIBLE_DEVICES=0
optuna
study optimize foo.py objec
浏览 7
提问于2020-05-12
得票数 3
回答已采纳
1
回答
将经过训练
的
模型保存到变量中
、
、
optuna
文档建议将每个模型保存到一个文件中,以便稍后在上
使用
。def objective(trial, n_epochs, batch_size): 'learning_rate'(params, model, trial) # THIS LINE fo
浏览 5
提问于2022-08-30
得票数 0
回答已采纳
1
回答
TPE (来自
Optuna
)是否考虑了试验
的
数量?
、
、
我正在
使用
optuna
的
TPE采样器来优化深度学习视觉模型
的
超参数。我想知道
optuna
是否适应
搜索
取决于试验
的
数量。我对TPE
的
工作原理只有基本
的
了解。 谢谢。
浏览 4
提问于2020-08-06
得票数 1
1
回答
光学金枪鱼超参数
搜索
不可重复中断/恢复研究
、
、
、
、
对于具有多个参数
的
大型ML模型,如果能够中断并恢复超参数优化
搜索
,将是很有帮助
的
。
Optuna
允许
使用
RDB后端
进行
此操作,该后端将研究结果存储在SQlite数据库()中。Expect:对于一个固定
的
种子,n_trials = x优化运行
的
结果与
使用
n_trials = x/5
的
学习相同,恢复5次,学习被KeyboardInterrupt中断5次,恢复5次直到n_trials在一项研究中展示了所有试验<em
浏览 10
提问于2022-08-11
得票数 0
回答已采纳
1
回答
我需要对catboost
的
源代码
进行
哪些更改才能将max_depth提高到16以上?
、
、
、
、
我想
使用
更深
的
树来解决我
的
业务问题,但catboost对树
的
深度有16个限制。我看了一下代码,找到了硬编码
的
部分。中
的
这一行我可以简单地将其更改为64,然后运行setup.py吗?或者会有其他依赖关系,并可能导致任何问题?
浏览 6
提问于2021-04-28
得票数 0
2
回答
在一项研究完成后,设置固定参数并检索它们
的
标准方法是什么?
Optuna
允许用户
使用
suggest_ API
搜索
参数空间。这很简单,也很聪明。
使用
suggest_ API
进行
搜索
: 有人可能建议我在目标函数中对
Optuna
研究中检索这些参数
的
参数。据我所知,
Optuna
浏览 6
提问于2021-08-09
得票数 1
1
回答
指定要
搜索
的
固定参数和参数(lightgbm)
、
、
我刚刚找到了
Optuna
,它们似乎与lightGBM集成了,但是我很难看到我可以在哪里修复参数,例如scoring="auc",以及在哪里可以定义一个
搜索
网格空间,例如num_leaves=[1,2,5,10以为例,他们只定义一个带有一些固定参数
的
params dict (是否所有参数都未在该dict中指定?),并且声明:我如何控制哪些参数被调谐,在什么空间中,以及如何修正一些
浏览 3
提问于2020-11-09
得票数 1
1
回答
Optuna
for Catboost输出随机顺序
的
“试验”?
、
、
我正在
使用
Optuna
for CatboostRegressor
进行
超参数调整,但是我意识到我得到
的
试验是随机顺序
的
(我
的
试验是从试验7开始,然后是试验5,最后是试验8。我在网上看到
的
所有示例都是按顺序
进行
的
,例如试验0以值结束: xxxxx,试验1,试验2……(示例:) 这是一个问题,还是没有什么值得担心
的
?不知道为什么我
的
顺序是随机
的
。我还想知道是否应该先做cb.cv (Ca
浏览 3
提问于2021-10-24
得票数 0
1
回答
是否有一种方法使
Optuna
`suggest_categorical`to从列表中返回多个选项?
、
、
我正在
使用
Optuna
对我
的
模型
进行
超参数化。我有一个字段,我想测试一个列表中
的
多个组合。有没有办法用内置
的
Optuna
函数实现这一点?
浏览 13
提问于2022-08-17
得票数 0
回答已采纳
1
回答
长尾鱼,改变地块
的
轴比
、
、
我一直在对
optuna
进行
一些优化,我想在两个轴上制作相同规模
的
地块,但到目前为止,我还不知道怎么做。study =
optuna
.create_study(study_name=study_name,
使用
第一种方法,图片在浏览器中
的
交互式视图中打开,
浏览 16
提问于2022-08-19
得票数 1
回答已采纳
1
回答
如何提高演替者
的
能力?
、
、
在这种情况下,我被应用了一个cat递推回归器,它给了我相当好
的
R2(98.51)和MAE (3.77)。其他节点LGBM,XGBOOST在catboost下执行。现在,我想增加R2值,降低MAE,以获得更精确
的
结果。这也是我们
的
要求。我多次通过添加“损耗_函数”:'MAE',‘L2_叶子_reg’:3,‘随机强度’:4,‘套袋_温度’:0.5来调整不同
的
值,但性能是相同
的
。
浏览 1
提问于2021-03-02
得票数 4
回答已采纳
1
回答
光学ConvergenceWarning在激光超参数调谐研究中
的
应用
、
、
当
使用
Optuna
对我
的
Lasso模型
进行
微调时,我得到以下ConvergenceWarning。是否有可能增加nr。迭代?我增加了n_trials,但没有帮助。我
的
代码: lasso = Lassocross_val_score(lasso, X_train, y_train, cv=kf, scoring="
浏览 0
提问于2021-05-13
得票数 0
点击加载更多
相关
资讯
使用Optuna进行PyTorch模型的超参数调优
召唤超参调优开源新神器:集XGBoost、TensorFlow、PyTorch、MXNet等十大模块于一身
Optuna,一个超参数优化Python库!
Optuna AutoSampler 更新:让多目标和约束优化不再需要手动选算法
三行代码,AutoML性能提高十倍!微软开源FLAMA,比sota还要sota
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券