腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
XGBoost
-
选择
精度
最高
的
树
、
、
我需要可视化
XGBoost
的
效果,并希望从中提取一棵在测试集上具有
最高
精度
的
树
。是以任何方式构建
的
,还是必须手动测试所有的
树
?我使用
的
是Python版本。
浏览 16
提问于2020-05-29
得票数 0
2
回答
xgboost
CV和
树
的
数量
、
、
我浏览了这篇文章,但没有完全理解
xgboost
中关于函数CV和参数"number of trees“
的
细节。 假设我们从特征和目标值
的
数据帧开始。CV在每一轮中做什么?如果CV结果有500行(即有500个决策
树
),那么如何构建每棵
树
?这500棵
树
是如何组合在一起产生一个单一
的
原木损失数字
的
?
浏览 3
提问于2017-08-26
得票数 2
2
回答
分类
树
中“实数”与“判定值”
的
混淆
、
、
、
我正在阅读
XGBoost
指南,我对它在决策
树
的
评分系统和分类/回归
树
之间
的
区别感到困惑。我挂
的
那一段是:我一点也不确定这意味着什么。我对回归决策
树
的
理解是,每个叶都有一个值,它是分配给该
浏览 0
提问于2021-09-13
得票数 2
1
回答
为什么LightGBM不能比SVC (线性内核)表现得更好?[情绪分析]
、
、
我读过并听说过强大
的
XGBoost
,它是当今人们用来解决Kaggle挑战
的
最著名
的
模型之一。这使我对开发自己对模型
的
直觉感兴趣,所以我决定在我
的
数据集上尝试使用
XGBoost
,但不幸
的
是,当我试图在mac上安装
XGBoost
时,遇到了许多与依赖相关
的
问题:( 然而,我做了更多
的
研究,并从微软那里找到了另一个名为LightGBM
的
相关库,他们声称它在
XGBoost
上
浏览 0
提问于2017-07-14
得票数 1
1
回答
对于低频交易,什么是好
的
机器学习算法?
、
、
我试着训练一种算法来复制一些外汇交易网站上
的
顶级交易员。问题是交易者每月只交易10次,所以即使我只看一分钟
的
分辨率,也就是时间
的
.02%,10/(60 )*24*30)*100。我试过使用随机森林,它
的
错误率约为2%,这是不可接受
的
,据我所读,大多数机器学习算法都有类似的错误率。 有谁知道更好
的
方法吗?
浏览 0
提问于2016-01-27
得票数 4
回答已采纳
1
回答
python中
的
XGboost
问题
、
在使用
Xgboost
.sklearn.XGBclassifier
的
python中,我们有一个参数"n_estimators“表示训练模型时可以
选择
的
树
的
数量,但我没有找到任何与
xgboost
.train()相关
的
参数,有没有办法在
xgboost
.train()中添加
树
的
数量?
浏览 2
提问于2017-08-04
得票数 0
1
回答
为什么我
的
VotingClassifier
精度
低于我
的
单个分类器?
、
、
、
、
我正在尝试创建一个由三个分类器组成
的
集合(随机森林,支持向量机和
XGBoost
),使用VotingClassifier()在scikit-learn中。然而,我发现整体
的
精度
实际上是下降而不是增加。label in zip([rf, svc_optimized, xgb_optimized, eclf], ['Random Forest', 'Support Vector Machine', '
XGBoost
scoring='accuracy
浏览 2
提问于2016-09-27
得票数 9
1
回答
特征加减与支持向量机模型
精度
、
、
我正在研究一个文本分类问题,我想提高我
的
模型
的
准确性。目前,我正在使用
的
支持向量机与线性SVC和OneVsRestClassifier。模型应该正确地预测父类别的所有子类别。对于输入
的
帐户名称,我应该得到我
的
测试数据文件
的
正确描述,我将在以后测试模型。📷或者,还有什么有助于提高模型
的
准确性
的
吗?
浏览 0
提问于2019-08-15
得票数 0
回答已采纳
1
回答
在
XGBoost
或任何其他基于
树
的
方法中,特性
的
重要性是否可靠?
、
、
、
、
这个问题很长,如果您知道基于
树
的
方法
的
特性重要性是如何工作
的
,我建议您跳过图片下面的文本。在基于
树
的
方法中,特征重要性(FI)是通过观察每个变量减少这类
树
的
杂质(对于单
树
)或平均杂质(对于集成方法)
的
程度来确定
的
。我几乎可以肯定,对于单棵
树
来说,它是不可靠
的
,因为
树
的
变化很大,主要是在终端区域是如何建造
的
。<e
浏览 0
提问于2021-07-15
得票数 0
回答已采纳
2
回答
如何使用
xgboost
获得低
选择
功能
的
最高
精度
?
、
、
、
、
我一直在寻找几种特征
选择
方法,并在以下链接(
XGBoost
,)
的
帮助下找到了关于特征
选择
的
方法。,在这种情况下,我如何
选择
高
精度
和低数量
的
特征n?,并得到具有特征重要性值
的
特征?附带问题: 我试图找到最好
的
特征
选择
,涉及到使用特定
的
分类模型和最佳
的
特征,以帮助提供高
精度
,例如,例如,使用KNN分类器,并希望找到最好
的
特征,
浏览 2
提问于2020-05-25
得票数 0
回答已采纳
1
回答
XGBoost
最重要
的
特性多次出现在多棵
树
中
、
、
我正在将
xgboost
模型(Scala)与我
的
事务数据集相匹配。在我
的
培训集中,我有大约两百万笔交易,这是一个高度不平衡
的
比率,正/负<0.001班。我现在在模型中有大约300个功能。在有多少棵树上有一个特征然后,我从大多数
树
到最少
树
的
特征进行分类。我得到了一些我不确定
的
结果。列表顶部
的
特性,大多数
树
和分叉基本上出现在每个
xgboost
树
中
浏览 0
提问于2018-12-19
得票数 2
2
回答
不顾价值缺失过度拟合,基于
树
的
学习
、
、
、
我和我
的
同学们,我们正在从事一个教育机器学习项目,我们被困在overfitting-problem,上,因为我们对数据挖掘非常缺乏经验。我们
的
商业案例是关于零售银行,我们
的
目标是寻找客户
的
目标群体,根据产品resp。向客户推荐以股票、基金、存款等已经购买
的
产品为基础
的
特定产品。我们收到了大约400个特征和150.000个数据记录
的
数据集。我们在克尼梅建立我们
的
工作流程。我们
的
工作流程包括以下步骤: 我们研究了数据并定义了目标变量。
浏览 0
提问于2018-02-15
得票数 0
2
回答
不使用所有核心
的
XGBoost
n_jobs = -1训练
、
、
我在使用计算机上
的
所有核心来训练和交叉验证
XGBoost
模型时遇到了问题.num_boost_round=500, early_stopping_rounds=200) 它工作正常,但它只使用一个线程运行
xgboost
浏览 1
提问于2019-10-11
得票数 0
回答已采纳
4
回答
在使用
XGBoost
时,特性工程仍然有用吗?
、
我正在读与
XGBoost
有关
的
材料。这种方法不需要任何变量缩放,因为它是基于
树
的
,这种方法可以捕捉复杂
的
非线性模式,相互作用。通常,在预测建模中,您可以在所有的特性中进行一些
选择
,也可以从所拥有的一组特性中创建一些新
的
特性。因此,
选择
一个功能子集意味着您认为您
的
功能集中存在一些冗余;从当前功能集创建一些新特性意味着您对您的当前功能进行了一些功能转换。然后,这两点都应在
XGBoost
中讨论。那么,这是否意味着要使用<e
浏览 0
提问于2017-03-20
得票数 23
1
回答
XGBoost
决策
树
选择
、
、
关于应该从
XGBoost
中
选择
哪个决策
树
,我有一个问题。import
xgboost
as xgbdf_dmatrix =#plot the tree我在xg_reg模型中创建了10棵
树
,我可以通过在最后一段代
浏览 1
提问于2019-03-21
得票数 1
回答已采纳
1
回答
探索变量以指导
xgboost
调优
、
、
简而言之:在为
xgboost
选择
参数值时,如何考虑变量
的
类型和分布?示例:具有二进制结果变量和二进制/连续预测器混合
的
数据集。结果变量(每次观察一个值):一组名为味道(~150个变量)和纹理(~80个变量)
的
预测器
浏览 0
提问于2020-10-09
得票数 4
回答已采纳
1
回答
基于
XGBoost
评分函数和评价度量
的
超参数网格搜索
、
、
、
、
处理一个不平衡
的
数据集问题(7%比93%),我想找出我
的
xgboost
模型
的
最佳结构使用。注:我是使用分层k-折叠交叉验证,以确保每一个折叠有正确
的
比例少数民族阶级。我
的
情况如下,我注意到GridSearchCV有一个名为‘shown’
的
参数,我可以向它传递多个 (如所示),但是
xgboost
也有一个名为'eval_metric‘
的
参数,我在这两个参数之间有点混淆。指定它
的
正确位置在哪里?auc'
浏览 1
提问于2019-01-16
得票数 3
回答已采纳
1
回答
根据准确性、精确性、召回性、f1评分和roc评分,
选择
一种最佳模式。
、
、
、
我有两个分类器,它们使用以下结果对相同
的
数据集进行分类:--------|--------|---------|---------
XGBoost
| 91% | 0.70 | 0.67 | 0.66 | 0.80 我不确定,但在我看来,
XGBoost</em
浏览 0
提问于2021-12-06
得票数 1
回答已采纳
1
回答
从
xgboost
- plot
树
中提取权重和树结构
、
、
、
、
我正在使用python中
的
xgboost
包,并且我将在训练后提取树结构。例如,我将知道在每个节点上
选择
的
特征和阈值,以便将树结构导出到函数。此外,我需要知道每棵
树
在训练后
的
权重。(正如我们所知,
树
的
结果将像w1*h1+w2h2+...+wn*hn一样组合,其中wi是权重,hi是第i棵
树
在boosting中
的
答案)。实际上,我需要访问权重和内部
树
。我在做分类。我
的
另一个问题是,当我使
浏览 5
提问于2017-04-28
得票数 1
1
回答
在预处理数据集之后,
最高
精度
的
给定算法还能给出
最高
的
精度
吗?
、
、
、
、
将Logistic回归、朴素贝叶斯、KNN、SVM、决策
树
等5种算法应用于训练集中。其中,使用Logistic回归
的
二进制分类给了我
最高
的
精度
,但问题是我没有对数据集进行预处理。现在,我应该再次使用所有五种算法来训练我
的
模型,还是说使用Logistic回归
的
二进制分类在预处理训练数据集之后会再次给出
最高
的
精度
?
浏览 5
提问于2022-04-28
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
中国最高的树
对比TensorFlow提升树与XGBoost:我们该使用怎样的梯度提升方法
Featurewiz-Polars:基于XGBoost的高性能特征选择框架,一行代码搞定特征选择
输出精度最高的谐波减速机有什么缺点?
最小的占地面积,最高的精度:连接器的高效生产
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券