机器学习 - 提升树(上)- BT、GBDT
在之前对集成学习的两大框架 Bagging 与 Boosting 经过讲解,并对 Bagging 实现的一种算法 —— 随机森林进行了介绍。那么今天就对 Boosting 的实现算法进行介绍。
-
BT(Boosting Tree)
-
介绍
BT(Boosting Tree),提升树,是以决策树作为基分类器的 Boosting 方法,对分类问题决策树是分类二叉树且使用指数损失函数,对回归问题决策树使用回归二叉树,并采用平方差损失函数。提升树被认为是统计学习中性能最好的方法之一。
-
原理
提升树算法的精髓可以用一个词来表达:“残差”。在加法模型与前向分步算法的应用过程中,每一个基分类器学习的目标都是上一个基分类器预测值与真实值之间的误差值,这个误差值被称为 “残差”。
对于二分类问题,提升树只需将 AdaBoost 算法中 的基分类器限制为二分类树即可。下面叙述回归问题的提升树。
对回归问题使用前向分步算法,其中 为第 m 次迭代的模型, 为第 m 次学得的决策树。:
采用平方差损失函数 时,其损失变为:
,其中对于学习第 m 棵树来讲,它所面对的真实标签值为 ,而 又是 m-1 次预测值与真实值之间的差,所以第 m 次学习的目标就是上一轮的残差。
-
算法过程
(1) 初始化:
(2) 对 m=1,2,…,M
① 计算残差:
② 将残差作为训练数据学习一个回归树:
③ 更新模型:
(3) 得到提升树:
-
举例
1 2 3 4 5 6 7 8 9 10 5.56 5.7 5.91 6.4 6.8 7.05 8.9 8.7 9 9.05 (对于学习回归树的算法过程可参阅 决策树 - CART)
(1) 求出切分点:<0.5, 1.5, 2.5, 3.5, 4.5, 5.5, 6.5, 7.5, 8.5, 9.5>
(2) 以 切分点 s1 = 1.5 为例。s1 将数据划分为 R1={x1},R1={x2,x3,…,x10}
(3) 对 R1,R2 中的 元素值 计算平均值 c1,c2 ,而后计算损失m1,m2. 其中 c1,c2 视作 R1,R2 结点的预测值。
(4) 计算切分点 s1 的整体损失 m1=e1+e2=15.72
(5) 对于每一个切分点 sj,都计算其对应的整体损失 mj,最终取损失最小的切分点为最终划分点。并以最终划分点生成回归树 .
1.5 2.5 3.5 4.5 5.5 6.5 7.5 8.5 9.5 15.72 12.07 8.36 5.78 3.91 1.93 8.01 11.73 15.74 根据计算,当 sj = 6.5 时损失值最小,所以我们选取 sj = 6.5 作为最终划分点,
且 R1={1, 2, 3, 4, 5, 6},R2={7, 8, 9, 10},C1=6.24,C2=8.91
所以回归树
(6) 以上一轮学得的回归树 对数据进行预测,并计算预测值与真实值的残差 ri
1 2 3 4 5 6 7 8 9 10 -0.68 -0.54 -0.33 0.16 -2.11 -1.86 -0.01 -0.21 0.09 0.14 计算当前完整模型的损失函数值:
看当前损失函数值是否符合我们的要求,如果符合则停止学习,如果不符合则以 (xi,ri) 作为新的训练数据对下一轮的决策树进行训练,重复步骤 (1)~(6)
-
-
GBDT(Gradient Boosting Decision Tree)
-
原理
提升树利用加法模型与前向分步算法实现学习的优化过程,当损失函数是平方损失或指数损失时,每一步优化都是很简单的,但是对于一般损失函数而言往往没有那么容易。所以提出了梯度提升算法。
梯度提升算法与梯度下降算法相似,利用损失函数的负梯度(求偏导)在当前模型的值(相当于泰勒展开式中的一阶近似):
进行计算,其中 ,是上一轮完整模型的预测值。
在 GBDT 中计算残差的表达式为:
而不再是预测值与真实值计算的差值。不过对于平方损失函数来讲,它就是通常所说的残差,对于一般损失函数来讲,它是残差的近似值。
-
特点
(1) 优点
① 预测阶段速度快
② 在建树时的特征选择过程中可并行化计算
③ 在分布稠密的数据集上,表达能力与泛化能力都很好
④ 使用决策树作为基分类器,模型具有较好的鲁棒性与解释性
(2) 缺点
① 在高维稀疏数据集上的表现不如 SVM 与 神经网络好
② 在处理文本特征分类问题上,相对其他模型的优势不如在处理数值型特征时明显
③ 训练过程依赖上一层的训练结果,需要串行。
-