随机森林分类器学习

  集成学习(ensemble learning)是时下非常流行的机器学习算法,它本身不是一个单独的机器学习算法,而是通过在数据上构建多个模型,集成所有模型的建模结果。基本上所有的机器学习领域都可以看到集成学习的身影,在现实中集成学习也有相当大的作用,sklearn中有一系列的集成算法,比如adaboost分类,adaboost回归,袋装分类器,袋装回归器,梯度提升分类,梯度提升回归,随机森林分类,随机森林回归等.......

  集成算法会考虑多个评估器的建模结果,汇总之后得到一个综合的结果,以此来获取比单个模型更好的回归或分类表现。多个模型集成成为的模型叫做集成评估器(ensemble estimator),组成集成评估器的每个模型都叫做基评估器 (base estimator)

  主要三类集成算法:袋装法(bagging),提升法(boosting)和stacking

  装袋法的核心思想是构建多个相互独立的评估器,然后对其预测进行平均或多数表决原则来决定集成评估器的结果。装袋法的代表模型就是随机森林

  提升法中,基评估器是相关的,是按顺序一 一构建的。其核心思想是结合弱评估器的力量一次次对难以评估的样本 进行预测,从而构成一个强评估器。提升法的代表模型有Adaboost和梯度提升树。  

     随机森林是非常具有代表性的Bagging集成算法,它的所有基评估器都是决策树,分类树组成的森林就叫做随机森林分类器,回归树所集成的森林就叫做随机森林回归器

首先直观上感受一下随机森林的分类结果相对于单棵决策树的分类结果效果上的提升,这里采用的数据集仍旧是红酒数据集,用的是jupyter notebook

%matplotlib inline
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_wine
wine=load_wine()
wine.data.shape

from sklearn.model_selection import train_test_split
Xtrain,Xtest,Ytrain,Ytest=train_test_split(wine.data,wine.target,test_size=0.3)

clf=DecisionTreeClassifier(random_state=0)   
rfc=RandomForestClassifier(random_state=0)
clf=clf.fit(Xtrain,Ytrain)
rfc=rfc.fit(Xtrain,Ytrain)
score_c=clf.score(Xtest,Ytest)   #单棵决策树的分类结果
score_r=rfc.score(Xtest,Ytest)    #随机森林的分类结果
print("single tree:{}".format(score_c)
     ,"random forest:{}".format(score_r))



from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt

rfc=RandomForestClassifier(n_estimators=25)
rfc_s=cross_val_score(rfc,wine.data,wine.target,cv=10)   
#分别进行交叉验证看结果

clf=DecisionTreeClassifier()
clf_s=cross_val_score(clf,wine.data,wine.target,cv=10)

plt.plot(range(1,11),rfc_s,label="randomforest")
plt.plot(range(1,11),clf_s,label="classtreefier")
plt.legend()
plt.show()


superpa = []
for i in range(100):
    rfc = RandomForestClassifier(n_estimators=i+1,n_jobs=-1)
    rfc_s = cross_val_score(rfc,wine.data,wine.target,cv=10).mean()
    superpa.append(rfc_s)
print(max(superpa),superpa.index(max(superpa))+1)
#打印出:最高精确度取值,max(superpa))+1指的是森林数目的数量n_estimators
plt.figure(figsize=[20,5])
plt.plot(range(1,101),superpa)
plt.show()


   可以看到,同样的数据划分,测试集在随机森林分类器上的得分远远高于单个分类决策树



     上图是对红酒数据集分别采用随机森林和决策树进行交叉验证的方式,交叉验证不需要自己划分训练集和测试集,cv=10,数据集划分为10个部分,每次选择一个部分作为测试,其他九个部分作为训练,计算10次不同划分的得分,绘制得分曲线,可以看到随机森林明显效果优于简单的决策树。

   上图显示的是对于随机森林的参数n_estimators的寻找分析,绘制的曲线是n_estimators为不同的个数时,交叉验证取平均值的得分曲线,n_estimators代表的是基评估器的数量,从运行结果来看,给参数在当前数据划分情况下取值为17时得分最高,准确率已经接近1。

随机森林进一步分析:

  随机森林的本质是一种装袋集成算法(bagging),装袋集成算法是对基评估器的预测结果进行平均或用多数表决 原则来决定集成评估器的结果。在刚才的红酒例子中,我们建立了25棵树,对任何一个样本而言,平均或多数表决 原则下,当且仅当有13棵以上的树判断错误的时候,随机森林才会判断错误。单独一棵决策树对红酒数据集的分类 准确率在0.85上下浮动,假设一棵树判断错误的可能性ε=0.2,那13棵树以上都判断错误的可能性是:



  那现在就有一个问题了:我们说袋装法服从多数表决原则或对基分类器结果求平均,这即是说,我们默认森林中的 每棵树应该是不同的,并且会返回不同的结果。设想一下,如果随机森林里所有的树的判断结果都一致(全判断对 或全判断错),那随机森林无论应用何种集成原则来求结果,都应该无法比单棵决策树取得更好的效果才对。但我们使用了一样的类DecisionTreeClassifier,一样的参数,一样的训练集和测试集,为什么随机森林里的众多树会有不同的判断结果?

  这个问题就要回到分类树DecisionTreeClassifier自带的随机性,决策树从重要的特征中随机选择出一个特征来进行 分枝,因此每次生成的决策树都不一样,这个功能由参数random_state控制。在程序里看到随机森林模型也有random_state这个参数,它的作用和分类树里的作用一样,只不过,这里的random_state控制的是产生森林的模式,下面的代码可以更清楚了解这一点:

rfc = RandomForestClassifier(n_estimators=20,random_state=2) 
rfc = rfc.fit(Xtrain, Ytrain)
#随机森林的重要属性之一:estimators_
rfc.estimators_
[DecisionTreeClassifier(ccp_alpha=0.0, class_weight=None, criterion='gini',
                        max_depth=None, max_features='auto', max_leaf_nodes=None,
                        min_impurity_decrease=0.0, min_impurity_split=None,
                        min_samples_leaf=1, min_samples_split=2,
                        min_weight_fraction_leaf=0.0, presort='deprecated',
                        random_state=1872583848, splitter='best'),
 DecisionTreeClassifier(ccp_alpha=0.0, class_weight=None, criterion='gini',
                        max_depth=None, max_features='auto', max_leaf_nodes=None,
                        min_impurity_decrease=0.0, min_impurity_split=None,
                        min_samples_leaf=1, min_samples_split=2,
                        min_weight_fraction_leaf=0.0, presort='deprecated',
                        random_state=794921487, splitter='best'),
 DecisionTreeClassifier(ccp_alpha=0.0, class_weight=None, criterion='gini',
                        max_depth=None, max_features='auto', max_leaf_nodes=None,
                        min_impurity_decrease=0.0, min_impurity_split=None,
                        min_samples_leaf=1, min_samples_split=2,
                        min_weight_fraction_leaf=0.0, presort='deprecated',
                        random_state=111352301, splitter='best'),
 DecisionTreeClassifier(ccp_alpha=0.0, class_weight=None, criterion='gini',
                        max_depth=None, max_features='auto', max_leaf_nodes=None,
                        min_impurity_decrease=0.0, min_impurity_split=None,
                        min_samples_leaf=1, min_samples_split=2,
                        min_weight_fraction_leaf=0.0, presort='deprecated',
                        random_state=1853453896, splitter='best'),
......
......
......一共产生20棵树,省去部分显示

通过调用estimators_这个属性查看到一个随机森林中的所有树的参数,可以看到每棵树的random_state值是不相同的,这也就意味着每棵树的结果是不相同的,所以才有了袋装法服从多数表决原则或对基分类器结果求平均。

 其他参数介绍:

 bootstrap & oob_score

  要让基分类器尽量都不一样,一种很容易理解的方法是使用不同的训练集来进行训练,而袋装法正是通过有放回的 随机抽样技术来形成不同的训练数据,bootstrap就是用来控制抽样技术的参数。在一个含有n个样本的原始训练集中,我们进行随机采样,每次采样一个样本,并在抽取下一个样本之前将该样本 放回原始训练集,也就是说下次采样时这个样本依然可能被采集到,这样采集n次,终得到一个和原始训练集一 样大的,n个样本组成的自助集。由于是随机采样,这样每次的自助集和原始数据集不同,和其他的采样集也是不 同的。这样我们就可以自由创造取之不尽用之不竭,并且互不相同的自助集,用这些自助集来训练我们的基分类 器,我们的基分类器自然也就各不相同了。

  bootstrap参数默认True,代表采用这种有放回的随机抽样技术。通常,这个参数不会被我们设置为False

    然而有放回抽样也会有自己的问题。由于是有放回,一些样本可能在同一个自助集中出现多次,而其他一些却可能 被忽略,一般来说,自助集大约平均会包含63%的原始数据。因为每一个样本被抽到某个自助集中的概率为:


  一个数据永远不会被抽到的概率是(1-1/n)^n,所以一个数据有可能被抽到的概率就是1-(1-1/n)^n,当n足够大时,这个概率收敛于1-(1/e),约等于0.632。因此,会有约37%的训练数据被浪费掉,没有参与建模, 这些数据被称为袋外数据(out of bag data,简写为oob)。除了我们开始就划分好的测试集之外,这些数据也可 以被用来作为集成算法的测试集。也就是说,在使用随机森林时,我们可以不划分测试集和训练集,只需要用袋外数据来测试我们的模型即可。

  不过用袋外数据测试也不是一定可行的,上面计算的概率只是理论值,实际抽取可能会全部都抽到,那么此时袋外数据就没有,也就不能使用袋外数据进行测试了。

#无需划分训练集和测试集
 
rfc = RandomForestClassifier(n_estimators=25,oob_score=True)#默认为False
rfc = rfc.fit(wine.data,wine.target)
 
#重要属性oob_score_
rfc.oob_score_#0.9719101123595506

  上图所示是使用袋外数据进行测试的得分。

 补充:

  在使用袋装法时要求基评估器要尽量独立。其实,袋装法还有另一个必要条件:基分类器的判断准 确率至少要超过随机分类器,即时说,基分类器的判断准确率至少要超过50%。按照下面的公式,这里是将单个分类器的准确率设置为0.8计算的。

  通过对准确率进行不同的设置,可以绘制出当随机森林随着准确率的变化,相对于分类树的优劣情况:

import numpy as np
from scipy.special import comb 
x = np.linspace(0,1,20)
 
y = []
for epsilon in np.linspace(0,1,20):
    E = np.array([comb(25,i)*(epsilon**i)*((1-epsilon)**(25-i)) for i in range(13,26)]).sum()      
    y.append(E)
plt.plot(x,y,"o-",label="when estimators are different")
plt.plot(x,x,"--",color="red",label="if all estimators are same")
plt.xlabel("individual estimator's error")
plt.ylabel("RandomForest's error")
plt.legend()
plt.show()

   横坐标表示单棵树的错误率变化,纵坐标表示随机森林随着单棵树错误率变化,整体的错误率的变化,红色线表示如果随机森林中每棵数长一样,那么无论怎么变化数据集,随机森林的准确性与单棵树的准确性是一样的,蓝色曲线表示的是森林中每棵树长的不一样时,随之单棵树错误率的提升,随机森林模型的错误率变化,可以看到,当基分类器的误差率小于0.5,即准确率大于0.5时,集成的效果是比基分类器要好的。相反, 当基分类器的误差率大于0.5,袋装的集成算法就失效了。所以在使用随机森林之前,一定要检查,用来组成随机森林的分类树们是否都有至少50%的预测正确率。

猜你喜欢

转载自www.cnblogs.com/victorywr/p/12814576.html
今日推荐