前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习-线性回归

机器学习-线性回归

作者头像
AomanHao
发布2022-01-13 12:14:46
5040
发布2022-01-13 12:14:46
举报
文章被收录于专栏:ISP图像处理相关

机器学习-线性回归

LR模型

每个特征变量可以首先映射到⼀一个函数,然后再参与线性计算,模型如下:

y = theta_0 + theta_1x_1 + theta_2x_2 + · · · + theta_nx_n

其中 x_1,x_2,...,x_n表示自变量(特征分量),y表示因变量,\theta是权重,\theta_0是偏移项(截距);\theta_i越大,说明x_iy结果的影响越⼤输入空间映射到特征空间(映射函数\phi(x)),建模.为 h_\theta(x)=\theta^T\phi(x)

特征映射相关技术,包括特征哈希、特征学习、Kernel等

目标函数

预测值 h_\theta(x)与真实值y之差越小越好,加入损失函数(平方损失函数):

J(\theta)={0.5}\sum_{i=1}^{n}{(h_\theta(x^i)-y^i)^2}

min{J(\theta)}损失函数就是x^i的预测值h_\theta(x^i)与真实值y^i之差的平方和

回归模型(尤其是线性回归类)的⽬目标函数通常⽤用平⽅方损失函数来作为优化的⽬目标函数

为什么用误差平方和作为目标函数:

根据中⼼心极限定理理,把那些对结果影响⽐比较⼩小的变量量(假设独⽴立同分布)之和认为服从正态分布是合理理的

如果数据是高斯分布的,输入值x^i,预测值\theta^Tx^i,真实值y^i,误差\epsilon^{i},线性模型为,

y^i=\theta^Tx^i+\epsilon^{i}

根据中心极限定理,认为变量之和服从高斯分布,即

e^{i} = y^i-\theta^Tx^i

则,x,y的条件概率为

p(y^i|x^i;\theta) = \frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y^i-\theta^Tx^i)^2}{2\sigma^2})

p(y^i|x^i;\theta)越大,证明越接近真实值,还要考虑拟合过度以及模型的泛化能力问题

优化目标函数:使目标函数最小

代码语言:javascript
复制
最小二乘法
梯度下降法
    批量梯度下降法
    随机梯度下降法
拉格朗日乘子法

例子Misplaced &

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018 年 07 月,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • LR模型
  • 目标函数
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档