【机器学习】决策树(三)——生成算法(ID3、C4.5与CRAT)

回顾

简单理解决策树
通过例子理解决策树构建过程

前面我们介绍了决策树的特征选择,以及根据信息增益构建决策树。

那么决策树的生成又有哪些经典算法呢?本篇将主要介绍ID3的生成算法,然后介绍C4.5中的生成算法。最后简单介绍CRAT算法。

ID3算法

前面我们提到,一般而言,信息增益越大,则意味着使用该属性来进行划分所获得的“纯度”提升就越大。因此,我们可以用信息增益来进行决策树的划分属性选择。著名的ID3决策树学习算法就是以信息增益为准则来划属性的。

ID3算法流程
输入:训练数据集 D ,特征集 A ,阀值 E
输出:决策树 T
(1)若 D 中所属实例属于同一类 C k ,则T为单结点树,并将类 C k 作为该结点的类标记,返回 T
(2)若 A = ϕ ,则 T 为单结点树,并将 D 中实例数最大的类 C k 作为该结点的类标记,返回 T
(3)否则,按照计算 A 中每个特征对 D 信息增益,选择信息增益最大的特征 A m
(4)如果 A m 的信息增益小于阀值 E ,则置 T 为单结点树,并将 D 中实例数最大的类 C k 作为该结点的类标记,返回 T
(5)否则,对 A m 的每一种可能值 a i ,依 A m = a i D 分割为若干非空子集 D i ,将 D i 中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树 T ,返回 T
(6)对第 i 个子结点,以 D i 为训练集,以 A A m 为特征集,递归调用步骤(1)~(5),得到子树 T i ,返回 T i

ID3算法的优缺点

  • 优点:

决策树构建速度快,容易构建

  • 缺点:

计算依赖于特征数目较多的特征,而属性值最多的属性并不一定最优
ID3算法不是递增算法
ID3算法是单变量决策树,对特征属性之间的关系不会考虑
抗噪性差
只适合小规模数据集,需要将数据放到内存中
容易产生过拟合

C4.5算法

C4.5算法与ID3算法相似,C4.5算法对ID3算法进行了改进。C4.5在生成的过程中,用信息增益比来选特征。

信息增益比

以信息增益作为划分训练数据集的特征,存在偏向于选择取值较多的特征的问题,使用信息增益比可以对这一问题进行校正。这是特征选择的另一准则。

定义:特征 A 对训练数据集 D 的信息增益比 g R ( D , A ) 定义为其信息增益 g ( D , A ) 与训练数据集 D 关于特征 A 的值的熵 H A ( D ) 之比,即:

g R ( D , A ) = g ( D , A ) H A ( D )

其中: H A ( D ) = i = 1 n | D i | | D | l o g 2 | D i | | D | n 是特征 A 取值的个数。

C4.5算法流程
输入:训练数据集 D ,特征集 A ,阀值 E
输出:决策树 T
(1)若 D 中所属实例属于同一类 C k ,则T为单结点树,并将类 C k 作为该结点的类标记,返回 T
(2)若 A = ϕ ,则 T 为单结点树,并将 D 中实例数最大的类 C k 作为该结点的类标记,返回 T
(3)否则,按照计算 A 中每个特征对 D 信息增益比,选择信息增益比最大的特征 A m
(4)如果 A m 的信息增益比小于阀值 E ,则置 T 为单结点树,并将 D 中实例数最大的类 C k 作为该结点的类标记,返回 T
(5)否则,对 A m 的每一种可能值 a i ,依 A m = a i D 分割为若干非空子集 D i ,将 D i 中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树 T ,返回 T
(6)对第 i 个子结点,以 D i 为训练集,以 A A m 为特征集,递归调用步骤(1)~(5),得到子树 T i ,返回 T i

C4.5算法的优缺点

  • 优点:

产生的规则易于理解
准确率较高
实现简单

  • 缺点:

对数据需要进行多次扫描和排序,所以效率低
只适合小规模数据集,需要将数据放到内存中

CART算法

CART决策树使用“基尼指数”来选择特征划分,数据集 D 的纯度可以用基尼值来度量:

G i n i ( D ) = k = 1 | y | k k p k p k = 1 k = 1 | y | p k 2

直观来说, G i n i ( D ) 反映了从数据集 D 中随机抽取两个样本,其类别标记不一致的概率。因此 G i n i ( D ) 越小,则数据集 D 的纯度越高。

如果样本集合 D 根据特征 A 是否取某一可能值 a 被分割成 D 1 D 2 两部分,即:

D 1 = { ( x , y ) D | A ( x ) = a } $ , $ D 2 = D D 1

则在特征 A 的条件下,集合 D 的基尼指数定义为:
G i n i ( D , A ) = | D 1 | | D | G i n i ( D 1 ) + | D 2 | | D | G i n i ( D 2 )

通式为:
G i n i ( D , a ) = v = 1 V | D v | | D | G i n i ( D v )

基尼指数 G i n i ( D ) 表示集合 D 的不确定性,基尼指数 G i n i ( D , A ) 表示经 A = a 分割后集合 D 的不确定性。
我们在候选属性集合 A 中,选择那个是的划分后 基尼指数最小的属性作为最优划分属性。

注:基尼指数用来划分属性生成分类数的,对于回归树的生成我们用的是最小二乘回归树生成算法。

最小二乘回归树生成算法

输入:训练数据集 D
输出:回归树 f ( x )

在训练数据集所在的输入空间中,递归的将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树。
(1)选择最优切分变量 j 与切分点 s ,求解:

min j , s [ min c 1 x i R 1 ( j , s ) ( y i c 1 ) 2 + min c 2 x i R 2 ( j , s ) ( y i c 2 ) 2 ]

遍历变量 j ,对固定的切分变量 j 扫描切分点 s ,选择使上式达到最小值 的对 ( j , s )
(2)用选定的对 ( j , s ) 划分区域,并决定相应的输出值:
R 1 ( j , s ) = { x | x ( j ) s } R 2 ( j , s ) = { x | x ( j ) > s }

c m = 1 N m x i R m ( j , s ) y i x R m m = 1 , 2

(3)继续对两个子区域调用步骤(1)(2),直到满足停止条件
(4)将输入空间划分为 M 个区域 R 1 , R 2 , . . . , R M ,生成决策树:
f ( x ) = m = 1 M c m I ( x R m )

CART基于基尼指数的生成算法

输入:训练数据集 D ,停止计算条件;
输出:CART决策树

根据训练数据集,从根结点开始,递归的将每个结点进行以下操作,构建二叉决策树。
(1)设结点的训练数据集为 D ,计算现有特征对该数据集的基尼指数。此时,对每一个特征 A ,对其可能取的每一个值 a ,根据样本点对 A = a 的测试为“是”或“否”将 D 分割成 D 1 D 2 两部分,计算 A = a 时的基尼指数。
(2)在所有可能的特征 A 以及它们所有可能的切分点 a 中,选择基尼指数最小的特征及其对应的切分点作为最优特征与最优切分点,生成两个子结点。
(3)对两个子结点递归调用(1),(2),直到满足停止条件;
(4)生成CART决策树。

总结

对于每种生成算法,只是使用了不同的方法来选择特征,流程基本类似。
ID3和C4.5算法均只适合小规模数据集上使用
ID3和C4.5算法都是单变量决策树
当属性取值比较多的时候,最好考虑C4.5算法,ID3算法得出的结果比较差
决策树分类一般只适合小数据量的情况
此外,我们还可以对决策树进行一些优化策略,比如:剪枝。将在下次博客中更新

参考资料:
李航《统计学习方法》
周志华《机器学习》西瓜书

猜你喜欢

转载自blog.csdn.net/daycym/article/details/80768217
今日推荐