前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习(4)手推线性回归模型(单变量 求导法)

机器学习(4)手推线性回归模型(单变量 求导法)

作者头像
滚神大人
发布2020-06-02 17:03:46
9530
发布2020-06-02 17:03:46
举报
文章被收录于专栏:趣Python趣Python

机器学习系列:

机器学习(1) - 人工智能起源

机器学习(2)细说监督学习

机器学习(3)再说监督学习的套路


前面说到了机器学习的套路,今天我们来手推下线性回归模型(单变量)的参数推导。

线性模型(单变量)是最基础的模型,单变量,也就是二维的情况,通过它,我们可以清楚的学习到监督学习数学推导的基本套路:定义代价函数,让它最小,搞定。

线性回归模型,单变量的情况下,只有2个参数,y = w*x + b,这个学过数学的同学都知道,拟合线性用到的算法是MSE(最小均方误差),这在机器学习中的表达方式就是代价函数。

今天我们给出的是通过数学求导的方式来计算参数,这种方式解释性好,但是需要求导数,计算量比较大,后面我们还会给出梯度下降法的手推过程。

我们会给出代价函数J(w, b),然后求它对参数w,b的导数最小,得到的参数就是最接近的参数了。

具体参见如下推导:

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-05-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 趣Python 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档