前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习(2) -- logistic regression

机器学习(2) -- logistic regression

作者头像
昱良
发布2018-04-04 14:31:32
8020
发布2018-04-04 14:31:32
举报
文章被收录于专栏:机器学习算法与Python学习

本篇内容对应机器学习课程的第二次视频~~~~~~~

大纲:

2 Logistic Regression.

  2.1 Classification.

  2.2 Hypothesis representation.

    2.2.1 Interpreting hypothesis output.

  2.3 Decision boundary.

    2.3.1 Non-linear decision boundaries.

  2.4 Cost function for logistic regression.

    2.4.1 A convex logistic regression cost function.

  2.5 Simplified cost function and gradient descent.

    2.5.1 Probabilistic interpretation for cost function.

    2.5.2 Gradient Descent for logistic regression.

  2.6 Multiclass classification problem

key words: logistic regression, classification, decision boundary, convex function, One-vs-all

2.6 Multiclass classification problem

现实中也常遇到多分类问题(multiclass classification problem),如判断手写的数字是0~9中的哪一个就是一个有10类的问题。多分类学习的基本思路是“拆解法”,即将多分类任务拆为若干个二分类任务求解。具体来说,先对问题进行拆分,然后为拆分出的每个二分类任务训练一个分类器(也就是h(x));在预测时,对这些分类器的预测结果进行集成

下面介绍一个常用的拆分策略-“One-vs-all”.

One-vs-all每次将一个类的样例作为正例(“1”),所有其他类作为反例(“0”)来训练n个分类器。在预测时,有两种情况看:

  • 情况1:若仅有一个分类器预测为正例,则对应的类别标记作为最终分类结果;
  • 情况2:若有多个分类器预测为正例,则选择分类器的预测置信度最大的类别标记为分类结果。

例如对于图2-10所示的多分类问题,我们先将三角形,正方形,叉分别标记为类别1,2,3,然后做如下划分:

  1. 先将三角形看作正例“1”,正方形和叉看作反例“0”,训练出hθ1(x)
  2. 再将正方形看作正例“1”,三角形和叉看作反例“0”,训练出hθ2(x)
  3. 最后将叉看作正例“1”,三角形和正方形看作反例“0”,训练出hθ3(x)

预测时每一个预测值都是一个形如[hθ1(x), hθ2(x), hθ3(x)]的向量。选出最大的h(x),它的上标就是对应的类别标记。例如若预测值为[0.13, 0.24, 0.79],对应的就是上文所说的情况1,即只有hθ3(x) > 0.5表现为正例,所以应该认为是属于3标记类,即为叉。若预测值为[0.12, 0.83, 0.56], 对应的就是上文所说的情况2,hθ2(x) 和hθ3(x)都大于0.5,都预测为正例,但hθ2(x)> hθ3(x),所以应该预测是属于2标记类,即为正方形。

图2-10

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-06-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习算法与Python学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2.6 Multiclass classification problem
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档