我已经找了一段时间了,只是找不到任何线索。当人们谈论算法中的迭代时,比如XGBoost或LightGBM,或者Catboost,它们是否意味着要构建多少决策树,即基本学习者?即XGboost m=100意味着该算法将总共建立100个基础学习者,每一个计算和优化都是对先前预测的剩余值进行的。
还是更像是深度学习的一个时代?
发布于 2019-05-29 16:36:02
你的第一个解释是正确的。每增加一次迭代/循环,就会增加一个基础学习者,这可能就是人们在谈论迭代时所指的内容。
来自维基:
一个自然正则化参数是梯度增强迭代数M(即当基本学习者是决策树时模型中的树数)。
迭代发生在算法的其他部分,例如梯度下降,但如果简单地称为“迭代”,我不认为这是讨论的内容。
https://datascience.stackexchange.com/questions/52857
复制相似问题