发布于 2020-05-04 15:20:45
Wang等人(2019)给出了一个很好的解释。请查看他们的论文,找出你想要的答案:
第二部分:贝叶斯优化LIGHTGBM
A. LightGBM的原理
发布于 2022-12-10 07:29:05
GOSS是在LightGBM中使用的一种技术,用于选择用于训练梯度增强模型的数据子集。它首先根据损失函数相对于当前模型的梯度对训练数据进行排序,然后根据这些梯度的大小选择数据的子集。
为了更详细地理解GOSS背后的数学,首先回顾一下梯度提升背后的一些关键概念是有帮助的。在梯度增强中,通过迭代增加弱学习者(如决策树)对模型进行训练,使每个新的学习者接受关于先前学习者的残差的训练。此过程一直持续到模型达到预定义的停止标准为止。
在每次迭代中,GOSS根据损失函数相对于当前模型的梯度选择训练数据的子集。
具体而言,GOSS使用两个步骤来确定数据实例的子集,以考虑拆分点:
总之,GOSS背后的基本思想是以一种考虑损失函数相对于模型所作预测的梯度的方式对实例进行采样。这是通过保留一定百分比的具有最大梯度的实例来完成的,同时随机抽样其余的实例。这使得该模型能够将重点放在对培训更为重要的实例上,同时仍然保持一个多样化的培训集。
GOSS算法的具体细节可以在LightGBM的文章中找到,这里有:轻型策:一种高效的梯度提升决策树。具体而言,GOSS算法在本文3.3节中作了介绍。
https://datascience.stackexchange.com/questions/64078
复制相似问题