前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习系列7:逻辑回归

机器学习系列7:逻辑回归

作者头像
SuperFeng
发布2019-09-26 16:07:52
3450
发布2019-09-26 16:07:52
举报
文章被收录于专栏:SuperFengSuperFeng

你们有没有每天被垃圾短信骚扰的经历呢?假设我收到了一条短信,这条短信对我来说只有两种情况,要么是对我有用的,要么是没用的。我想通过一个模型去预测该短信是否为垃圾短信,这时候用原来学过的线性回归算法就不太好用了,因为结果只有两种值,要么是垃圾短信(假设为 1),要么不是垃圾短信(假设为 0)。这时候我们要学习一种新的算法去预测这种分类问题,它就是逻辑回归算法(Logistic Regression)。逻辑回归是一种分类算法。

让我们来看一下逻辑回归算法,逻辑回归算法的假设函数 hθ(x) 由以下表达式组成:

其中g(z) 称为逻辑函数(Logistic Function),又称为 Sigmoid Function。g(z) 的函数图像为:

对于逻辑回归算法的假设函数 hθ(x) 可以这样理解,对于给定的参数 θ ,一组数据(x, y),通过 x 去预测 y = 1 的概率有多大,或 y = 0 的概率有多大。如果要写成表达式,如下:

y 只有两种可能性,要么为 0,要么为 1,因此通过 x 去预测 y = 1 和 y = 0 的概率之和为 1。

让我们回到 g(z) 的函数图像,当 z > 0 时,g(z) > 0.5 ,y =1 概率比 y = 0 的概率大,我们就可以假设 y =1。当 z < 0 时,g(z) < 0.5 ,y =1 概率比 y = 0 的概率小,我们就可以假设 y = 0。那么预测 y 的值全部取决于 z 的值。举个例子来说,假设我有以下数据集:

我想要对该数据集进行分类,那么假设函数 hθ(x) 为:

当我给定参数向量的值为 θ = [-3 1 1] ,那么 z = -3 + x_1 + x_2 ,现在就变成当 -3 + x_1 + x_2 > 0 时 y = 1。我们可以在画出 -3 + x_1 + x_2 = 0 这条直线:

这条直线划分的两个范围,就是 y = 0 和 y = 1 的范围,这条直线就叫做决策边界(Decision Boundary)。决策边界只与参数 θ 有关。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-02-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SuperFeng 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
短信
腾讯云短信(Short Message Service,SMS)可为广大企业级用户提供稳定可靠,安全合规的短信触达服务。用户可快速接入,调用 API / SDK 或者通过控制台即可发送,支持发送验证码、通知类短信和营销短信。国内验证短信秒级触达,99%到达率;国际/港澳台短信覆盖全球200+国家/地区,全球多服务站点,稳定可靠。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档