前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习笔记3:逻辑回归

机器学习笔记3:逻辑回归

作者头像
光学小豆芽
发布2020-08-13 10:34:30
4000
发布2020-08-13 10:34:30
举报

这篇笔记整理下逻辑回归(logisitic regression)的相关知识点。

逻辑回归,是用来处理二分类问题的一种数学模型。逻辑回归的输出值为离散值0或者1。逻辑回归与线性回归的相似之处,是两者都是寻找合适的参数构成的直线(下图中的红线)。不同之处在于,逻辑回归中,该直线作为边界将数据集分为两类,直线上方为1,下方为0(或者相反)。线性回归中,需要使得数据集尽量靠近该直线。

与线性回归相比,逻辑回归其需要将线性回归产生的概率预测值z转换为0或者1。z (z=theta*x)需要通过Sigmoid函数映射为0和1。Sigmoid函数的定义如下,

可以看出,当z>=0时,g(z)>=0.5, 此时认为y=1, 当z<0时,g(z)<0.5, 此时认为y=0.

逻辑回归的数学模型为,

其代价函数定义为,

需要找到一组theta值,使得J(theta)取极小值。使用梯度下降法,对应的计算过程为,

对于更复杂的曲线,可以采用正则化逻辑回归的方案。例如,下图中分类曲线不是一条直线,

此时,可以在特征中引入新的特征值,例如x1*x2这些交叉项,

此时,代价函数需要引入新的项,用来避免过拟合(overfitting)的问题。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-06-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 光学小豆芽 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档