然而, 这还不完全是XGBoost所采取的策略, XGBoost还在二阶泰勒展开的基础上加入了对弱学习器hm的惩罚项, 防止过拟合的发生....当使用C&RT树作为弱学习器 hm时, 我们可以将hm表示为
?
, 其中, q(x) 表示将 d 维的特征映射到树叶的索引, 为树结构的表示; T 表示树叶的个数....有了(21), XGBoost就能从一个单叶子节点开始, 以贪心的策略不断地尝试节点分裂的方案, 进而不断地分裂生长, 最终长成一棵完整的树....2.Approximate Algorithm
当训练集的样本量为千万甚至上亿级别时, 对于任一特征 k , 这意味着寻找特征 k 的分裂点需要执行同样数量级的尝试操作....新特征向量由 0 / 1 组成, 其每个特征对应GBDT模型树的一个叶子节点, 当样本落在某个叶子节点上时, 该位特征取值为1, 否则取值为0.