前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >线性回归 - MAP

线性回归 - MAP

作者头像
为为为什么
发布2022-08-05 15:04:11
3660
发布2022-08-05 15:04:11
举报
文章被收录于专栏:又见苍岚又见苍岚

本文记录岭回归角度进行线性回归的方法。

问题描述

考虑一个线性模型 {y}=f({\bf{x}}) 其中y是模型的输出值,是标量,\bf{x}d维实数空间的向量

  • 线性模型可以表示为:
f(\bf{x})=\bf{w} ^Tx,w\in \mathbb{R}
  • 线性回归的任务是利用n个训练样本:

  • 和样本对应的标签:
Y = [ y _ { 1 } \cdots \quad y _ { n } ] ^ { T } \quad y \in \mathbb{R}
  • 来预测线性模型中的参数 \bf{\omega},使得模型尽可能准确输出预测值

线性回归 / MAP

岭回归就是带有L_2正则的线性回归,也可以从最大后验概率的角度推出

  • 根据贝叶斯公式

  • 其中 P(Y \mid X, w) P(w) 分别是似然和先验, 并且 y \mid x, w \sim \mathcal{N}\left(w^{T} x, \sigma^{2}\right) w \sim \mathcal{N}(0, \Sigma)
  • 接着,其中第一项:
  • 第二项:
P(w)=\frac{1}{\sqrt{2 \pi}|\Sigma|^{\frac{1}{2}}} \exp \left(-\frac{w^{T} \Sigma^{-1} w}{2}\right)
  • 然后对 P(Y \mid X, w) P(w) 取对数, 得到:

  • 同样的套路, 针对对数函数求解最优参数

  • 将上式看作损失函数

  • 然后对其求导
\frac{\partial L(w)}{\partial w}=2\left(X^{T} X+\sigma^{2} \Sigma^{-1}\right) w-2 X^{T} Y=0
  • 得到:
\hat{w}=\left(X^{T} X+\sigma^{2} \Sigma{-1}\right){-1} X^{T} Y
  • \sigma^{2} \Sigma^{-1}=\lambda 就得到了岭回归的结果

参考资料

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021年5月25日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 问题描述
  • 线性回归 / MAP
  • 参考资料
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档