前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >学习回归 1-4 多项式回归

学习回归 1-4 多项式回归

作者头像
触摸壹缕阳光
发布2022-11-08 13:34:45
4490
发布2022-11-08 13:34:45
举报

多项式回归

前面对于已知的数据点,我们一直使用一次函数来进行拟合,一次函数的图形为一条直线。

f_{\theta}(x) = \theta_0 + \theta_1x

不过,对于这些添加的数据点,曲线可能比直线的拟合效果更好。

f_{\theta}(x) = \theta_0 + \theta_1x+\theta_2x^2

如果想要表示更加复杂的曲线,还可以使用更高的次数。

f_{\theta}(x) = \theta_0 + \theta_1x + \theta_2x^2 + \cdots+ \theta_nx^n

我们可以随便决定

f_{\theta}(x)

是什么样的函数,不过对于要解决的问题,找到合适的表达式之前,需要不断地去尝试。更高次数的曲线能够更好的拟合所有数据点,甚至能够完全拟合所有的数据点,但是数据点中包含很多的噪声。

类比于考试,我们平时练习的题目对应到机器学习中的学习阶段(找到合适的参数),而考试对应到机器学习中的测试阶段(验证找到的参数是否能够解决实际的问题),更高次数的曲线相当于我们将平时练习的题目死记硬背了下来,没有学习到题目中的规律和技巧,虽然平时练习能够得到好成绩,但是我们的目的是为了和平时练习题目不同的考试,自然考试的成绩不会太高,相对应的找到的参数并不能解决实际的问题。这也是机器学习中非常重要的 过拟合问题

\frac{\partial E}{\partial \theta_2} = \frac{\partial E}{\partial f_{\theta}(x)}\frac{\partial f_{\theta}(x)}{\partial\theta_2}

前文已知

\frac{\partial E}{\partial f_{\theta}(x)} = \sum_{i=1}^{n}(y^{(i)} - f_{\theta}(x^{(i)}))

,只需要求出

\frac{\partial f_{\theta}(x)}{\partial \theta_2}

\begin{split} \frac{\partial f_{\theta}(x)}{\partial \theta_2} &= \frac{\partial}{\partial \theta_2}(\theta_0 + \theta_1x + \theta_2x^2)\\ &=x^2 \end{split}

对于

f_{\theta}(x) = \theta_0 + \theta_1x+\theta_2x^2

的参数更新表达式为:

\begin{split} \theta_0 &:= \theta_0 - \eta\sum_{i=1}^{n}(f_{\theta}(x^{(i)}) - y^{(i)})\\ \theta_1 &:= \theta_1 - \eta\sum_{i=1}^{n}(f_{\theta}(x^{(i)}) - y^{(i)})x^{(i)}\\ \theta_2 &:= \theta_2 - \eta\sum_{i=1}^{n}(f_{\theta}(x^{(i)}) - y^{(i)})x^{(i)^2} \end{split}

References:

《白话机器学习的数学》

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-06-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI机器学习与深度学习算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 多项式回归
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档