从零开始学人工智能-Python·决策树(二)·节点

作者:射命丸咲Python 与 机器学习 爱好者

知乎专栏:https://zhuanlan.zhihu.com/carefree0910-pyml

本章用到的 GitHub 地址:

https://github.com/carefree0910/MachineLearning/blob/master/Zhihu/CvDTree/one/CvDTree.py

本章用到的数学相关知识:

https://zhuanlan.zhihu.com/p/24497963?refer=carefree0910-pyml

上一章讲了如何定义准则,这一章主要讲怎么定义“节点”。决策树听上去就可以理解成一棵树、而实际上也确实如此。学过数据结构的童鞋们大概对 node 这个概念不会陌生,不过为了让从零开始的童鞋们有个直观理解,我打算援引之前的一个 Wiki 上的图:

这里面有两点需要注意:

被我框起来的所有东西组成我们决策树结构中的一个 node

被我用绿色框框起来的东西叫做叶子节点(leaf),可以认为每个 leaf 代表着一类

可能会有观众老爷敏锐地发现、除了 leaf 以外的节点、还包括了一个问题。这个问题是怎么选出来的呢?正是由我们上一章讲到的准则选出来的。更具体地说,是通过信息增益来裁决

知道基本思路之后、就可以开始实现了。为简洁(懒),我打算用最简单的 ID3 算法作为栗子

首先是初始化,我们分两步看

先把 node 自身基本的信息定义好

以上变量的用途和变量名的字面意思基本一致,需要特别指出两点:

self.ent 记录着当前 node 自身的熵。由算法规则和数学定义不难知道除了根 node 以外、其它 node 生成之前、其熵是已经被计算好的了(观众老爷们可以尝试证明一下吖 ( σ'ω')σ )。用 self.ent 来记录这个算好的熵可以避免重复计算,算是一个小小的优化

self.children 记录了该 node 的所有孩儿(……) node。还是拿上面那张图来说:

其中,B、C、D 是 A 的孩儿;E、F 是 B 的孩儿;G、H 是 D 的孩儿

自然可以反过来说:A 是 B、C、D 的爸爸,等等

再把 node 的一些宏观结构定义好

这里面需要说明的东西有点多,我们一个个讲:

tree 指的是下一章我们要讲的树结构,可以暂时不管(不过相信聪明的观众老爷们能够从名字上看出前三行在干什么 ( σ'ω')σ )

feature_dim,这个可以说是最关键的变量之一,它记录着该 node 关注的是数据的哪一个维度

与此相对应的是 prev_feat,这个变量记录着它的爸爸的特征的取值。不过需要注意的是该变量的存在仅仅是为了可视化,所以删掉也没什么大的问题

depth,parent 和 is_root 分别记录了 node 的深度、爸爸和它是否是根节点

leafs,这也是最关键的变量之一,记录了该 node 的子孙中有哪些 leaf

还是用上图来说,A 的 leafs 就记录着 CEFGH,B 则记录着 EF,等等

pruned,这个变量记录着该 node 是否已被剪枝,它只会在剪枝算法里面用到,所以其具体用途会在后面章节讲

至此,我们 node 的结构就完全搭建好了,接下来我们会说说如何往这个结构中添加功能、以使它能够递归地生成、裁剪出一颗决策树

希望观众老爷们能够喜欢~

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171227A0A53D00?refer=cp_1026

同媒体快讯

相关快讯

扫码关注云+社区