前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文解读 Greedy Function Approximation:A Gradient Boosting Machine

论文解读 Greedy Function Approximation:A Gradient Boosting Machine

作者头像
week
发布2021-11-29 15:03:53
4940
发布2021-11-29 15:03:53
举报
文章被收录于专栏:用户画像用户画像

论文链接:

https://xueshu.baidu.com/usercenter/paper/show?paperid=ab7165108163edc94b30781e51819e0c

Abstract

Function approximation是从function space方面进行numerical optimization,其将stagewise additive expansions和steepest-descent minimization结合起来。而由此而来的Gradient Boosting Decision Tree(GBDT)可以适用于regression和classification,都具有完整的,鲁棒性高,解释性好的优点。

1. Function estimation

在机器学习的任务中,我们一般面对的问题是构造loss function,并求解其最小值。可以写成如下形式:

通常的loss function有:

1. regression:均方误差(y-F)^2,绝对误差|y-F|

2. classification:negative binomial log-likelihood log(1+e^(-2yF))

一般情况下,我们会把F(x)看做是一系列带参数的函数集合 F(x;P),于是进一步将其表示为“additive”的形

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2021-07-13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Abstract
  • 1. Function estimation
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档