决策树如何防止过拟合

决策树在长成的过程中极易容易出现过拟合的情况,导致泛化能力低。主要有两种手段可以用于防止过拟合。

提前停止

Early Stopping,在完全长成以前停止,以防止过拟合。主要有以下3种方式:

  1. 限制树的高度,可以利用交叉验证选择
  2. 利用分类指标,如果下一次切分没有降低误差,则停止切分
  3. 限制树的节点个数,比如某个节点小于100个样本,停止对该节点切分

后剪枝

提前停止的不足

“提前停止”是一个不错的策略,但是在实际的执行中会越到一些麻烦。比如「其中的第2点,如果下一次切分没有降低误差,则停止切分。」一看貌似很有道理,但是很容易举出反例:

对一个XOR的数据集生成决策树:
-w573

下面如果使用x[1]切分:
-w569

又或者用x[2]切分:
-w554

发现,无论选择哪一个维度进行切分都不会使得训练误差降低了。所以根据Early Stopping,仅仅长成只有一个节点的stump。但是实际上:
-w560

继续切下去,能学成一颗具有良好区分度的决策树。所以「提前停止」的第2种情况既有利也有弊:
-w395

剪枝

我们通过一颗决策树的叶子结点个数来定义这棵树有多复杂。
-w491

但是树太简单也不好,训练误差太大,欠拟合。所以,训练出一颗好的决策树就是在树的训练误差与复杂程度之间做权衡。
-w422

写成数学公式,可以表示为:
-w418
-w451

剪枝算法

举例说明

有一颗已经长成的树:
-w368

从底部开始考虑,第一个要检查的切分点是Term:
-w443

假设惩罚性lambda是0.3:

  • 对于未剪枝的T,计算它的训练误差为0.25,叶子结点总数为6.所以总的cost为0.43
  • 对于剪去Term的Tsamller,计算它的训练误差为0.26,叶子结点总数为5.所以总的cost为0.41
  • 因为剪去后的树的损失更小。所以决定剪枝。
  • 接着对于所有的切分节点做上述相同的动作。

算法

-w393

猜你喜欢

转载自www.cnblogs.com/shayue/p/jue-ce-shu-fang-zhi-guo-ni-he.html