前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习课程_笔记03

机器学习课程_笔记03

作者头像
jeremyxu
发布2018-05-11 09:41:30
7132
发布2018-05-11 09:41:30
举报

局部加权回归

线性回归算法里的成本函数:

正规方程解出的参数解析表达式:

由于使用了过小的特征集合使得模型过于简单,在这种情形下数据中的某些非常明显的模式没有被成功地拟合出来,我们将其称之为:欠拟合(underfitting)。

由于使用了过大的特征集合使得模型过于复杂,算法拟合出的结果仅仅反映了所给的特定数据的特质,我们可以称之为过拟合。

在特征选择中存在上述两类问题。

这里讲到一类非参数学习算法,可以缓解对于选取特征的需求,就是局部加权回归算法。

这个算法可以让我们不必太担心对于特征的选择。

算法示意

称为波长函数, \(\tau\)较小,则权值随距离下降得快, \(\tau\)较大,则权值随距离下降得慢。

线性回归的概率解释

代表误差项,它表示了一种我们没有捕获到的特征,或者你也可以把它看成一种随机的噪声。

然后可以得到

是独立同分布的。

然后定义

这个就是参数\Theta的似然性。

算法的目标也就变为:

再定义

然后最大化 \ell(\Theta) 就变成了最小化 2=J()

于是推导出了线性回归算法里的成本函数。

logistic回归

推导过程

上述g(Z)公式就叫做sigmoid函数,也叫logistic函数。

同样使用概率解释下logistic回归函数。

采用梯度上升算法来最大化

最后得到logistic回归的更新\Theta​的过程为

## 感知器算法

这个跟logistic算法很相似,更新\(\Theta\)的过程为

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-06-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 局部加权回归
    • 算法示意
    • 线性回归的概率解释
    • logistic回归
      • 推导过程
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档