前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习系列10:线性回归与逻辑回归的正则化

机器学习系列10:线性回归与逻辑回归的正则化

作者头像
SuperFeng
发布2019-09-26 16:09:18
6760
发布2019-09-26 16:09:18
举报
文章被收录于专栏:SuperFengSuperFeng

线性回归的正则化

还记得在线性回归中我们有哪两种方法去求代价函数的最小值吗?当然是梯度下降正规方程了。让我们来复习一下线性回归中梯度下降算法,如下:

其中黄色部分就是代价函数对参数 θ 的偏导数。当我们正则化代价函数后,代价函数发生了改变:

相应地,偏导数也会改变,得到正则化后的梯度下降算法:

把其中的 θ_j 提出来,简化后:

正规方程正则化后呢?就成了下面这样:

逻辑回归的正则化

逻辑回归的代价函数为:

与线性回归的正则化类似,逻辑回归的正则化就是在逻辑回归的代价函数中加入对参数的惩罚:

正则化后得到的梯度下降算法与线性回归中非常像,只是假设函数不同而已。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-03-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SuperFeng 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 线性回归的正则化
  • 逻辑回归的正则化
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档