前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >第3章:决策树分类器 - 理论

第3章:决策树分类器 - 理论

作者头像
iOSDevLog
发布2019-05-05 11:22:10
9460
发布2019-05-05 11:22:10
举报
文章被收录于专栏:iOSDevLogiOSDevLog

作者:Savan Patel 时间:2017年5月11日 原文:原文:https://medium.com/machine-learning-101/chapter-3-decision-trees-theory-e7398adac567

H = 熵

迎阅读监督学习的第三个基本分类算法。决策树。像前面的章节(第1章:朴素贝叶斯第2章:SVM分类器)一样,本章也分为两部分:理论编码练习

在这一部分,我们将讨论理论和决策树背后的工作。我们将看到算法的一些数学方面,即熵和信息增益。在第二部分中,我们修改了sklearn库中决策树分类器的垃圾邮件分类代码。我们将比较Naive Bayes和SVM的准确性。

拒绝和招聘的黑暗面!

0.动机

假设我们有以下两个类的图,由黑色圆圈和蓝色方块表示。是否可以绘制一条分离线?也许没有。

你能为这些类画出单一分界线吗?

我们需要不止一行,分成几类。与下图类似的东西:

对于x的阈值和y的阈值,我们需要两条线。

我们在这里需要两条线,一条线根据x的阈值分离,另一条线条用于y的阈值

正如您现在猜到的那样,决策树会尝试做什么。

决策树分类器通过识别行重复地将工作区域(绘图)划分为子部分。(重复,因为可能存在两个相同类别的远距离区域,如下图所示)。

image.png

那么什么时候终止?

  1. 它要么分成纯粹的类(只包含单个类的成员)
  2. 满足分类器属性的一些标准。

我们很快就会看到这两点。


在以下部分中,我们定义了与决策树相关的几个术语,然后使用示例示例执行这些计算。

1.杂质

在上面的部门中,我们明确地分类了。但如果我们有以下案例怎么办?

杂质是指我们将一个阶级划分为另一个阶段的痕迹。这可能是由于以下原因引起的

  1. 我们没有可用的功能来分类。
  2. 我们容忍一定比例的杂质(我们停止进一步分割)以获得更快的性能。(准确性和性能之间总是存在折衷)。

例如,在第二种情况下,当我们剩下x个较少数量的元素时,我们可以停止我们的除法。这也称为基尼杂质。

基于一些功能划分

2.熵

熵是元素的随机性程度,换句话说,它是**杂质的量度。****在数学上,它可以借助于项目的概率来计算:

p(x) 是项目x的概率

它是概率乘以项目x概率的对数的负和。

代码语言:javascript
复制
例如,
如果我们在投掷事件中将项目作为骰子面部出现次数为1123,
则熵为
   p(1)= 0.5 
   p(2)= 0.25 
   p(3)= 0.25 
entropy =  - (0.5 * log(0.5) )) - (0.25 * log(0.25)) - (0.25 * log(0.25)
        = 0.45

3.信息增益

假设我们有多个功能来划分当前工作集。我们应该选择什么功能进行划分?或许可以减少杂质。

假设我们将类划分为多个分支,如下所示,任何节点的信息增益定义为

代码语言:javascript
复制
信息增益(n)= 
  熵(x) - ([加权平均] *熵(特征的子项))

这需要一点解释!

假设我们有以下课程与初级合作

112234445

假设我们根据属性划分它们:可以被2整除

image.png

代码语言:javascript
复制
根
熵:0.66 左子熵:0.45,加权值=(4/9)* 0.45 = 0.2 
右子熵:0.29,加权值=(5/9)* 0.29 = 0.16
信息增益 = 0.66  -  [0.2 + 0.16] = 0.3

如果我们将决策作为素数而不是除以2,那么检查我们得到的信息增益**。****对于这种情况哪一个更好?

每个阶段的决策树选择提供最佳信息增益的决策树。当信息增益为0表示该功能根本不分割工作集。

如果你喜欢这个,请点击心脏(❤)图标并传播这个词。

让我们解决一个例子

现在您已经了解了关于决策树的基本知识,让我们解决一些示例并了解它的工作原理。

假设我们有以下数据可以在各种条件下打高尔夫球。

image.png

现在如果天气状况如下:

展望 :多雨,温度:凉爽,湿度:高,:虚假

我们应该打高尔夫吗?
代码语言:javascript
复制
我们在开始时有结果,因为NNYYYNYN(Y =是和N =否)按给定顺序拍摄。此根节点处的熵为0.3
现在尝试划分各种预测器的前景,温度,湿度和Windy。
计算每种情况下的信息增益。哪一个信息获得最高?
例如,如果我们基于Outlook划分,我们将划分为
Rainy:NNN(entropy = 0)
Sunny:YYN(entropy = 0.041)
阴天:YY(entropy = 0)
因此,信息增益= 0.3  -  [0 +(3/8)* 0.041 + 0] 
                    = 0.28
尝试其他案例。
基于Outlook划分时,信息增益最大。
现在Rainy和Overcast的杂质是0.我们在这里停下来。
接下来我们需要将Sunny分开,
如果我们除以Windy,我们将获得最大的信息收益。
Sunny 
YYN 
  Windy?是的:N 
         否:YY
所以决策树看起来像下图所示的东西。
没有预测数据是
Outlook:Rainy,Temperature:Cool,Humidity:High,Windy:False
根据结果​​从树上流下来,我们首先检查Rainy?
所以答案是否定的,我们不打高尔夫球。

image.png


最后的想法

基于最大信息增益有效划分是决策树分类器的关键。然而,在现实世界中,数百万个数据在实际上不可行时划分为纯类(可能需要更长的训练时间),因此当满足某些参数(例如杂质百分比)时,我们停在树节点中的点。我们将在编码练习中看到这一点。

接下来的部分,我们将使用Python中sklearn库代码决策树分类。我们将通过容忍一些杂质来调整一些参数以获得更高的准确度。


我希望本节有助于理解Decision树分类器背后的工作。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019.04.18 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 0.动机
  • 1.杂质
  • 2.熵
  • 3.信息增益
  • 让我们解决一个例子
    • 我们应该打高尔夫吗?
    • 最后的想法
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档