腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
利用Google引擎和
XGBoost
优化
超
参数
、
、
、
我正在尝试复制此中报告的
超
参数
优化示例,但我希望在我的培训应用程序中使用scikit学习
XGBoost
而不是tensorflow。使用
XGBoost
运行培训应用程序的内容:现在,我可以在每次试验结束时将每个度量结果转储到一个文件中,然后手动分析它们以选择最佳
参数
浏览 0
提问于2018-10-05
得票数 0
回答已采纳
1
回答
SageMaker
XGBoost
超
参数
调优与
XGBoost
python包
、
、
我正在尝试对
xgboost
模型进行
超
参数
调整。max_parallel_jobs=3,并获得具有以下
超
参数
集的最佳模型0.05726016655019904", "lambda": "1.2070623852474922"
浏览 2
提问于2020-02-27
得票数 0
1
回答
如何处理
xgboost
分类器的过度拟合?
、
、
、
、
我使用
xgboost
对光谱图图像进行多类分类(数据链接:)。best parameters are %s with a score of %0.2f" % (classifier.best_params_, classifier.best_score_)) 在
超
参数
整定过程中最好的
超
参数
是n_estimators=500+“learning_rate=0.1”和best_score_=0.83,当我使用这个最优估计器对训练数据进行分类时,得到的训练数据是100%正确的,但是测试数据只得到
浏览 0
提问于2020-06-11
得票数 0
1
回答
BoostedTreeClassifier在第一步就被卡住了
、
、
当我将其传递给其他基于keras的模型或
xgboost
模型时,相同的数据集似乎工作得很好。
浏览 52
提问于2019-06-29
得票数 0
1
回答
使用具有多个类的RandomizedSearchCV调整
XGBoost
超
参数
、
、
、
我正在对我的模型进行
超
参数
调整,我的代码如下所示: 'learning_rate': [0.01,0.05,0.1], 'min_child_weight如果我想测试所有的
参数
,我要切换到gridsearchcv吗?对于调整有什么建议吗?我正在做一个多类分类器,有100个类,每个类有500个样本:所以总共有50000个。谢谢!
浏览 8
提问于2020-11-03
得票数 1
1
回答
整洁模型中
XGBoost
的L2正则化
我正在使用tidymodels包来使用
XGBoost
模型。我的模型是 boost_tree(mtry = tune(), trees = 1000, learn_rate = tune()) %>% set_mode('classification') 我想知道应该把L2正则化
超
参数
λ放在哪里。R
xgboost
文档列出了la
浏览 24
提问于2021-07-07
得票数 0
1
回答
在
XGBoost
4J Spark中训练随机森林
、
、
如何在使用
XGBoost
Spark4J训练随机森林时传递num_parallel_tree
参数
?看起来根本没有使用num_parallel_tree
参数
。即使是打印正在使用的所有
超
参数
的
XGBoost
库的日志也不会打印num_parallel_tree。我们使用的是带有spark 2.4.2的
XGBoost
版本1.0.0。
浏览 0
提问于2020-08-11
得票数 0
2
回答
如何优化
XGBoost
性能精度?
、
优化XGBClassifier
参数
的推荐方法是什么,因为我使用默认值(即model=XGBClassifier() )创建了模型。在找到最优预测值之前,我是否应该使用蛮力循环某些
参数
中的值?
浏览 0
提问于2018-03-14
得票数 4
回答已采纳
1
回答
xgboost
.cv TypeError: cv()为
参数
'dtrain‘获取了多个值
、
、
、
我正在尝试手动测试
xgboost
的不同
超
参数
,但此错误不断出现。如果dtrain以逗号结尾,我不确定如何为它提供多个
参数
。import
xgboost
as xgbparams = {'eta':[0.1]} {'
浏览 20
提问于2021-11-04
得票数 1
回答已采纳
1
回答
我应该使用EC2虚拟机中的哪些
参数
来优化H2O的
XGBoost
性能?
、
、
、
、
我正试着在r4.8x的大小上运行H2O
xgboost
。但运行时间太长(15+小时,而相同
超
参数
网格大小的GBM需要4小时)。知道
XGBoost
使用缓存优化,有什么特定的实例类型最适合H2O的
XGBoost
实现吗? 我的训练数据有28K行,150个二进制列。我正在进行网格搜索。
浏览 4
提问于2021-05-21
得票数 1
1
回答
如何量化培训的“计算成本”?
、
、
我想量化
超
参数
搜索
xgboost
模型的计算成本。一种方法是使用特定的
超
参数
配置来测量训练时间,并将其作为计算成本的代理。我们可以根据所选择的
超
参数
的值来量化计算成本吗?我想要衡量的每一个特定的
超
参数
选择的训练相同的数据集,什么将是模型的性能和计算成本!
浏览 0
提问于2020-10-18
得票数 1
1
回答
模型整定与模型拟合的特征顺序
、
、
假设同一列(即特征)用于
超
参数
调整和模型拟合,而集成模型用于建模(例如,随机森林或
XGboost
),那么在
超
参数
调整过程中使用的列的顺序是否应与基于最佳
超
参数
拟合模型时使用的列的顺序相同?我在我的简历管道中使用sklearn的make_column_transformer函数进行
超
参数
调整。不幸的是,当将余数
参数
设置为“passthrough”时,此函数修改了提供列的顺序。
浏览 0
提问于2020-02-10
得票数 1
回答已采纳
2
回答
不平衡分类的权重
、
、
为了解决这个问题,我在定义
XGBoost
时使用了DMatrix的weight
参数
: label
浏览 1
提问于2020-03-10
得票数 1
回答已采纳
2
回答
超
参数
调谐
XGBoost
、
、
我试着用贝叶斯优化来调优
超
参数
。这是一个具有目标函数的回归问题: objective =‘reg:方格误差’。我想找到一组
超
参数
,以最小化损失函数。在实现贝叶斯
超
优化时,这是否优化了平方日志错误?最大值(pred我,1)在出现负预测的情况下存在。而且,即使在
超
参数
优化之后,我也得到了不好的结果。这些是我评估的
超
参数
: pbounds = {'learning_rate': (0,1), 'max_dept
浏览 0
提问于2020-10-28
得票数 1
回答已采纳
3
回答
超
调谐
XGBoost
参数
、
、
XGBoost
在处理分类变量和连续依赖变量方面做得很好。但是,如何为
XGBoost
问题选择优化的
参数
呢?这就是我如何为最近的Kaggle问题应用
参数
: boostermaximize = FALSE,) 我所做的实验就是随机选择(凭直觉)另一组
参数
来改进结果
浏览 0
提问于2015-12-13
得票数 33
回答已采纳
1
回答
如何使用AWS SageMaker进行外部
XGBoost
超
参数
调优?
、
、
、
我现在拥有的是: 一个完全用Python构建的二进制分类应用程序,其中
xgboost
是ML模型。这里,
xgboost
有一组从SageMaker获得的优化的
超
参数
。一个SageMaker笔记本,用于启动
xgboost
的
超
参数
调优作业。然后,我在Python应用程序中手动复制和粘贴
超
参数
到
xgboost
模型中来进行预测。我现在要做的是在Python中添加一段代码,以便在SageMaker中自动启动
超
浏览 2
提问于2019-09-19
得票数 0
1
回答
如何优化
xgboost
?
、
我想对
xgboost
型分类器执行
超
参数
调优。当我使用特定的
超
参数
值时,我看到一些错误。请建议调整max_feature、criterion、loss等
超
参数
的正确方法 def xgb_grid_search(X,y,nfolds): #create a dictionary of
浏览 13
提问于2021-07-27
得票数 0
回答已采纳
2
回答
使用拉丁
超
立方体抽样(LHS)从大型矩阵/
参数
组合网格中选择
超
参数
、
、
我有一个矩阵,每一行对应于
XGBoost
模型的一个
超
参数
。在
XGBoost
中有七个
参数
需要调优(如下所示:n圈/迭代、max_depth、eta、gamma、colsample_byTree、min_child_weight和子样本)。我做了一个文献回顾来指定每个
参数
的值的范围和间隔。使用这些范围和间隔,
参数
空间产生约62,500个
参数
组合。我使用R插入符号::train函数为我的数据集生成最佳的
超
参数
组合
浏览 0
提问于2021-04-11
得票数 1
回答已采纳
1
回答
卡雷特“火车”或特殊包裹
我看到在卡雷特的“列车”函数中有一个
XGBoost
包和一个
XGBoost
选项。这两种选择有什么不同,是因为它们提供了不同的设置吗?更普遍地说,如何在使用"train“函数和方法的独立包之间作出选择?
浏览 0
提问于2019-08-19
得票数 1
回答已采纳
1
回答
使用Hyperopt调整
XGBoost
超
参数
、
、
、
、
我正在尝试调整我的XGBClassifier模型。但我没有做到这一点。请找到下面的代码,并请帮助我清理和编辑代码。from hyperopt import STATUS_OKMAX_EVALS = 200def objective(params, n_folds = N_FOLDS): """Objective function for Gradient Boosting Machine Hyperparameter
浏览 33
提问于2020-05-23
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
什么是“超参数”?跟“参数”有何不同?
XGBoost算法
超参数和验证集
使用TensorBoard进行超参数优化
xgboost之train方法
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券