专栏首页技术沉淀一文掌握XGBoost核心原理

一文掌握XGBoost核心原理

开公众号啦,分享读书心得,欢迎一起交流成长。

XGBoost是经典的提升树学习框架,其配套论文和PPT分享也相当经典,本文简单梳理其思路,原文见XGBoost原理简介

整体思路

和一般提升模型一样,提升树模型也遵循相同的范式

  • 采用加法模型「forward stage-wise manner」
  • 每轮引入一weak learner「此处是一棵CART树」
  • 学习之前weak learners的不足「用梯度表征」

同时要考虑过拟合等问题「overfitting is everywhere」。

Tree Ensemble

遵循李航老师统计学习三要素公式

假设空间「模型」

Tree Ensemble基本思想是将多棵树的结果融合作为最终输出,示意图如下

paper-xgboost-tree-ensemble

不难看出,模型的假设空间是一系列CART树的集成,输出为

其模型参数为

颗树

目标函数「策略」

模型假设有了,另一个核心元素就是目标函数,和一般监督模型一样

目标函数分两部分「Bias-variance tradeoff is everywhere

  • Training Loss measures how well model fit on training data
  • Regularization measures complexity of model

具体到Tree Ensemble,其目标函数为

优化求解「算法」

模型参数的最终求解。参数

颗树,无法用SGD类似方法优化求解,因为不是

空间上的数值向量。一般采用Additive Training(Boosting)的思想求解。

Gradient Boosting

Tree Ensemble章节回答了what we are learning的问题,Gradient Boosting章节要回答how do we learn的问题。

Additive Traing范式

采用Additive Training(Boosting)的模式,即每一轮学习一颗新树

paper-xgboost-boosting

学习一颗新树

问题是每一轮

中,

如何学习?

Define objective(loss, regularization) and optimize it.

在第

轮,树的每一次生长,确定选那个特征分裂/分裂点取在哪里即可。其依据是使Objective最小,这里涉及两点,即

取何值Objective最小,以及Objective最小值表达式是什么。

定义Objective及其近似

Objective是

的一般函数,其最小值一般表达式并不完全确定「not general」。XGBoost对其进行二阶泰勒展开近似,推导变换后Objective可形式化为

个独立的二项式,表达式可统一「只需Objective一阶二阶可导即可」。

以下简单梳理推导核心步骤。

paper-xgboost-taylor-expansion

其中每次迭代

视为

泰勒近似展开,用一阶二阶导表示。对应到Square Loss后理解会更直观一些,一阶导正比于残差,二阶导为常数。

经过简化,现在Objective为

此时学习只依赖loss function一阶二阶导,理论理解和工程实现都简洁不少。

The learning of function only depend on the objective via

and

.

确定Objective最小值

为方便推导,需要一些符号表示上的辅助

  • 变换树的表达方式,见下文「如何表征一棵树」章节

表示落在第

个叶子节点所有样本集合

  • 详细符号含义见下文「符号约定」章节
  • 正则项」考虑叶子节点数以及叶子分的L2范数,见下图

paper-xgboost-regularization

不难推导如下式子

对上述四个式子几点解释

  • 式子1是经过泰勒展开近似的目标函数
  • 式子2考虑树新表达方式,公式加入正则项
  • 式子3将

个样本,按划分的叶子节点重新group,整合train loss和regularization

  • 式子4引入

简化表达

  • 式子4是

个独立的二项式

对二项式

,在

取极值

。不难得出

取值为

时,Obj有以下最小值

最小值中包含两项,第一项表示树拟合好坏,第二项表示树的复杂度。如此,即可根据gain选择分裂特征和分裂点了。

一点验证

当模型为GBDT,Loss选为Square Loss,不加正则项,其结论应该跟上述推导完全一致。Square Loss

求一阶导

即其一阶导是负残差。求二阶导,其值为常数

Square Loss情况下,取

集合的均值「残差均值」作为该节点预测值「optimal weight」,应该跟

保持一致。

不难看出

此处无正则

样本个数

残差之和

综上,其optimal weight即为残差均值,其实是XGBoost里

的特例。

如何表征一棵树

决策树可看做一系列If-Then规则的集合,但这样表示起来比较麻烦。为了方便公式的推导,XGBoost将其表示为一向量。

Think regression tree as a function that maps the attributes to the score. We define tree by a vector of scores in leafs, and a leaf index mapping function that maps an instance to a leaf.

即用长度为

「叶子节点数」的向量

和将样本实例映射到叶子索引的映射函数

表示。

paper-xgboost-tree

这样树的预测输出可直接用

表示,跟正则项

保持一致,公式表示推导上比较方便。

如何防止过拟合

XGBoost中有很多防止过拟合手段,比如

正则化

每一轮树的目标函数Objective中可以包含正则项,是防止过拟合经典手段

Shrinkage

每一轮树都不完全拟合残差或梯度,给后续学习器学习的空间

is called step-size or shrinkage, usually set around 0.1. This means we do not do full optimization in each step and reserve chance for future rounds, it helps prevent overfitting

Column Subsampling

随机森林里使用的经典方法,也叫做feature subsampling,每次只用一部分特征学习,也可防止过拟合。

Candidate Proposal

在选择连续特征分裂点时,不遍历所有可能值「exact greedy algorithm」,而是由数据分位点生成一系列候选「candidate proposal」,从中选择分裂点。这样不仅降低了计算量,同时还有一定防止过拟合效果。

特征重要性

树模型一个优点就是可以确定特征重要性,具体如何做呢?XGBoost里提供这几个衡量标准

  • 该特征作为分裂特征在所有树中出现的次数
  • 该特征作为分裂特征的增益「avg&total」
  • 该特征作为分裂特征的对样本的覆盖「avg&total」

详细可参考文档Python API Reference

当然还有更一般化确定特征重要性的方法,比如Permutation Test,林轩田老师在机器学习技法中随机森林章节中有介绍。其基本思想是某一维特征做permutation,依据模型performance的下降程度判定特征重要性。

符号约定

表示样本输入

表示模型在

上的输出

表示第

论学习的树

表示Training Loss

表示树

的复杂度,正则项

表示

对应的叶子节点索引

表示树叶子节点对应的得分向量

表示树叶子节点数

表示落到

节点上样本集

表示

集合一阶导之和

表示

集合二阶导之和

Ref

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 长文:一文掌握Pandas

    Pandas是Python数据科学生态中重要的基础成员,功能强大,用法灵活,简单记录之。

    用户2183996
  • Ruby练习三

    用户2183996
  • ROC分析

    算法工作中,经常要对模型进行评估,由此衍生出很多指标。比如Accuracy、Precision、Recall、F1-score、AUC等等。准确理解各指标的内涵...

    用户2183996
  • 机器学习实践中应避免的七种常见错误

    摘要:在机器学习领域,每个给定的建模问题都存在几十种解法,本文作者认为,模型算法的假设并不一定适用于手头的数据;在追求模型最佳性能时,重要的是选择适合数据集(尤...

    用户1332428
  • 谷歌大脑提出EfficientNet平衡模型扩展三个维度,取得精度-效率的最大化!

    今天要跟大家重磅介绍上午谷歌大脑新出的论文《EfficientNet: Rethinking Model Scaling for Convolutional N...

    CV君
  • 重磅!谷歌大脑提出EfficientNet平衡模型扩展三个维度,取得精度-效率的最大化!

    今天要跟大家重磅介绍上午谷歌大脑新出的论文《EfficientNet: Rethinking Model Scaling for Convolutional N...

    CV君
  • 通过预测API窃取机器学习模型

    由于机器学习可能涉及到训练数据的隐私敏感信息、机器学习模型的商业价值及其安全中的应用,所以机器学习模型在一定程度上是可以认为是机密的。但是越来越对机器学习服务提...

    FB客服
  • 业界 | 英伟达GTC大会谈GPU未来:实现机器学习和数据库的融合

    选自The Next Platform 机器之心编译 参与:微胖、黄小天、吴攀 对于工作,有一个合适的工具当然好;但是把一个工具应用于多个工作且效用更佳,这更...

    机器之心
  • “达观杯”文本智能处理挑战赛,季军带你飞

    作者:乐雨泉(yuquanle),湖南大学在读硕士,研究方向机器学习与自然语言处理。欢迎志同道合的朋友和我在公众号"AI 小白入门"一起交流学习。

    用户1737318
  • 珍藏版 | 20道XGBoost面试题

    XGBoost的威名想必大家都有所耳闻,它不仅是数据科学竞赛神器,在工业界中也被广泛地使用。本文给大家分享珍藏了多年的XGBoost高频面试题,希望能够加深大家...

    石晓文

扫码关注云+社区

领取腾讯云代金券