前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >lr模型训练_GBDT模型

lr模型训练_GBDT模型

作者头像
全栈程序员站长
发布2022-09-27 11:12:24
5430
发布2022-09-27 11:12:24
举报
文章被收录于专栏:全栈程序员必看
  • 分类模型
  • 本质上是线性回归模型
在这里插入图片描述
在这里插入图片描述
  • 优化目标 J ( θ ) = ∑ − y i l o g ( h ( θ T x i ) ) − ( 1 − y i ) l o g ( 1 − h ( θ T x i ) ) J(\theta) = \sum -y_ilog(h(\theta^Tx_i))-(1-y_i)log(1-h(\theta^Tx_i)) J(θ)=∑−yi​log(h(θTxi​))−(1−yi​)log(1−h(θTxi​)),最小化 其中 h ( θ T x ) = 1 1 + e − θ T x h(\theta^Tx) = \frac{1}{1+e^{-\theta^Tx}} h(θTx)=1+e−θTx1​,是sigmoid函数
在这里插入图片描述
在这里插入图片描述

linear regression和logistic regression都属于广义线性模型,linear regression是将高斯分布放在广义线性模型下推导得到的,logistic regression是将伯努利分布放在广义线性模型下推导得到的,softmax regression是将多项式分布放在广义线性模型下推导得到的。

推导请见: https://www.zhihu.com/question/35322351/answer/67117244

LR和linear SVM的异同 同:

  1. 都是线性分类器,模型求解的是超平面
  2. 都是监督学习算法
  3. 都是判别模型

异:

  1. 本质上loss function不同,LR采用logistic loss,SVM采用hinge loss
  2. SVM只考虑支持向量,而LR考虑所有数据,因此如果数据strongly unbalanced,一般需要对数据做balance
  3. LR基于概率理论,SVM基于几何间隔最大化原理。因此LR的输出具有概率意义,SVM的输出没有概率意义。
  4. 在解决非线性问题时,SVM采用核函数的机制,LR通常不采用核函数的方法(每个样本点都要参与核计算,计算量太大)
  5. SVM依赖数据表达的距离测度,所以需要对数据进行标准化。不带正则项的LR不受影响,但是使用梯度下降法求解时,为了更好的收敛,最好进行标准化。
  6. SVM自带正则,LR需要添加上正则项
  7. 根据经验来看,对于小规模数据集,SVM的效果要好于LR,但是大数据中,SVM的计算复杂度受到限制,而LR因为训练简单,可以在线训练,所以经常会被大量采用

[1] https://www.cnblogs.com/zhizhan/p/5038747.html [2] https://www.zhihu.com/question/26768865/answer/34048357 [3]https://blog.csdn.net/haolexiao/article/details/70191667

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/183845.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档