前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深入机器学习系列之:Decision Tree

深入机器学习系列之:Decision Tree

作者头像
数据猿
发布2018-12-27 10:50:06
5670
发布2018-12-27 10:50:06
举报
文章被收录于专栏:数据猿

导读

决策树,顾名思义,是一种树,一种依托于策略抉择而建立起来的树。机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。

来源: 星环科技丨作者:智子AI

数据猿官网 | www.datayuan.cn

今日头条丨一点资讯丨腾讯丨搜狐丨网易丨凤凰丨阿里UC大鱼丨新浪微博丨新浪看点丨百度百家丨博客中国丨趣头条丨腾讯云·云+社区

Decision Tree:决策树

决策树理论

1

什么是决策树

决策树,顾名思义,是一种树,一种依托于策略抉择而建立起来的树。机器学习中,决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。 树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,从根节点到叶节点所经历的路径对应一个判定测试序列。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。

2

决策树学习流程

决策树学习的主要目的是为了产生一棵泛化能力强的决策树。其基本流程遵循简单而直接的“分而治之”的策略。它的流程实现如下所示:

输入:训练集 D={(x_1,y_1),(x_2,y_2),...,(x_m,y_m)}; 属性集 A={a_1,a_2,...,a_d} 过程:函数GenerateTree(D,A) 1: 生成节点node; 2: if D中样本全属于同一类别C then 3: 将node标记为C类叶节点,并返回 4: end if 5: if A为空 OR D中样本在A上取值相同 then 6: 将node标记为叶节点,其类别标记为D中样本数量最多的类,并返回 7: end if 8: 从A中选择最优划分属性 a*; //每个属性包含若干取值,这里假设有v个取值 9: for a* 的每个值a*_v do 10: 为node生成一个分支,令D_v表示D中在a*上取值为a*_v的样本子集; 11: if D_v 为空 then 12: 将分支节点标记为叶节点,其类别标记为D中样本最多的类,并返回 13: else 14: 以GenerateTree(D_v,A\{a*})为分支节点 15: end if 16: end for

决策树的生成是一个递归的过程。有三种情况会导致递归的返回:

(1)当前节点包含的样本全属于同一个类别。(2)当前属性值为空,或者所有样本在所有属性上取相同的值。

(3)当前节点包含的样本集合为空。

在第(2)中情形下,我们把当前节点标记为叶节点,并将其类别设定为该节点所含样本最多的类别;在第(3)中情形下,同样把当前节点标记为叶节点, 但是将其类别设定为其父节点所含样本最多的类别。这两种处理实质不同,前者利用当前节点的后验分布,后者则把父节点的样本分布作为当前节点的先验分布。

3

决策树的构造

构造决策树的关键步骤是分裂属性(即确定属性的不同取值,对应上面流程中的a_v)。所谓分裂属性就是在某个节点处按照某一属性的不同划分构造不同的分支,其目标是让各个分裂子集尽可能地“纯”。 尽可能“纯”就是尽量让一个分裂子集中待分类项属于同一类别。分裂属性分为三种不同的情况:

1、属性是离散值且不要求生成二叉决策树。此时用属性的每一个划分作为一个分支。

2、属性是离散值且要求生成二叉决策树。此时使用属性划分的一个子集进行测试,按照“属于此子集”和“不属于此子集”分成两个分支。

3、属性是连续值。此时确定一个值作为分裂点split_point,按照>split_point和<=split_point生成两个分支。

4

划分选择

在决策树算法中,如何选择最优划分属性是最关键的一步。一般而言,随着划分过程的不断进行,我们希望决策树的分支节点所包含的样本尽可能属于同一类别,即节点的“纯度(purity)”越来越高。 有几种度量样本集合纯度的指标。在MLlib中,信息熵和基尼指数用于决策树分类,方差用于决策树回归。

1:信息熵

信息熵是度量样本集合纯度最常用的一种指标,假设当前样本集合D中第k类样本所占的比例为p_k,则D的信息熵定义为:

2 基尼系数

采用和上式相同的符号,基尼系数可以用来度量数据集D的纯度。

直观来说,Gini(D)反映了从数据集D中随机取样两个样本,其类别标记不一致的概率。因此,Gini(D)越小,则数据集D的纯度越高。

3:方差

MLlib中使用方差来度量纯度。如下所示

4 :信息增益

假设切分大小为N的数据集D为两个数据集D_left和D_right,那么信息增益可以表示为如下的形式。

一般情况下,信息增益越大,则意味着使用属性a来进行划分所获得的纯度提升越大。因此我们可以用信息增益来进行决策树的划分属性选择。即流程中的第8步。

5

决策树的优缺点

决策树的优点:

1 决策树易于理解和解释;

2 能够同时处理数据型和类别型属性;

3 决策树是一个白盒模型,给定一个观察模型,很容易推出相应的逻辑表达式;

4 在相对较短的时间内能够对大型数据作出效果良好的结果;

5 比较适合处理有缺失属性值的样本。

决策树的缺点:

1 对那些各类别数据量不一致的数据,在决策树种,信息增益的结果偏向那些具有更多数值的特征;

2 容易过拟合;

3 忽略了数据集中属性之间的相关性。

实例与源码分析

1

实例

下面的例子用于分类。

下面的例子用于回归。

2

源码分析

在MLlib中,决策树的实现和随机森林的实现是在一起的。随机森林实现中,当树的个数为1时,它的实现即为决策树的实现:

这里的strategy是Strategy的实例,它包含如下信息:

决策树的实现我们在随机森林专题介绍。这里我们只需要知道,当随机森林的树个数为1时,它即为决策树, 并且此时,树的训练所用的特征是全部特征,而不是随机选择的部分特征。即featureSubsetStrategy = "all"。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-12-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据猿 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档