集成算法——Adaboost代码

     集成算法是我们将不同的分类器组合起来,而这种组合结果就被称为集成方法或者是元算法。使用集成方法时会有多种形式:可以是不同算法的集成,也可以是同意算法在不同设置下的集成,还可以是数据集不同部分分配给不同分类器之后的集成。

两种形式:

bagging方法:从原始数据集选择S次后得到S个新数据集,之后将某个学习算法分别作用于数据集,就得到了S个分类器,在对新的数据集进行分类时,使用这些分类器进行分类,同时,选择分类器投票结果中最多的类别作为最后的分类结果。不同的分类器是通过串行训练而获得的,每个新分类器都根据已训练出来的分类器的性能来进行训练。分类器的权重是相等的。

例子:随机森林

boosting方法:使用多个分类器,它是通过集中关注被已有分类器错分的那些数据来获得新的分类器,boosting分类的结果是基于所有分类器的加权求和结果的,权重不相等,每个权重代表的是其对应分类器在上一轮迭代中的成功度。

例子:Adaboost,GBDT

AdaBoost的思想:

    1.训练数据中的每一个样本,并赋予一个权重,初始化为相等值,这些权重构成了向量D

    2.首先在训练数据上训练出一个弱分类器并计算该分类器的错误率,然后在同一个数据集上再次训练弱分类器。在分类器的第     二次训练中,将会重新调整每个样本的权重。其中第一次分对的样本的权重会降低,而第一次分错的样本的权重会提高。

    3.为了从所有弱分类器中得到最终的分类结果,Adaboost为每个分类器分配了一个权重alpha,这些alpha值是基于每个弱分类器的错误率进行的

                               

4.计算出alpha值后,可以对权重向量D进行更新,以使得那些正确分类的样本的权重降低而错分样本的权重升高。

 正确分类:


错误分类:


计算出D之后,在进行下一轮的迭代,会不断地重复训练和调整权重的过程,直到训练集错误率为0或者是弱分类器的数目达到用户的指定值为止。

代码实现:

import numpy as np
import matplotlib.pyplot as plt
def loadSimpData():
    dataMat=np.matrix([[1.,2.1],
                  [1.5,1.6],
                   [1.3,1.],
                   [1.,1.],
                   [2.,1.]
                  ])
    classLabels=[1.0 , 1.0 , -1.0 ,-1.0 ,1.0]
    return dataMat,classLabels
#数组过滤  将数据分成正好相反的两类
def  stumpClassify(dataMatrix,dimen,threshVal,threshIneq): # dimen特征值  threshVal 阈值  threshIneq 代表是lt或者是gt
    retArray=np.ones((np.shape(dataMatrix)[0],1))  #数组元素全部设置为1
    if threshIneq=='lt':
        retArray[dataMatrix[:,dimen]<= threshVal]=-1.0
    else:
        retArray[dataMatrix[:,dimen]> threshVal]=-1.0
    return retArray

构建单层决策树,找到错误率最小的特征和索引

def buildStump(dataArr, classLabels,D): #最佳基于数据的权重向量D来定义的
    dataMatrix=np.mat(dataArr);labelMat=np.mat(classLabels).T
    m,n=np.shape(dataMatrix)
    numSteps=10.0;bestStump={};bestClasEst= np.mat(np.zeros((m,1)))  #bestStump空字典
    minError = float('inf');#初始化为无穷大,之后用于寻找可能的最小的错误率 
    for i in range(n):#所有的特征上进行遍历
        # 计算出最大的步长
        rangeMin = dataMatrix[:,i].min();rangeMax = dataMatrix[:,i].max()
        stepSize = (rangeMax-rangeMin)/numSteps #最大的步长
        #
        for j in range(-1,int(numSteps)+1):
            #大于或小于阈值的
            for inequal in ['lt','gt']:
                threshVal=(rangeMin+float(j)*stepSize) #阈值的计算
                predictedVals = stumpClassify(dataMatrix,i,threshVal,inequal)
                #计算加权错误率
                errArr= np.mat(np.ones((m,1)))
                errArr[predictedVals== labelMat]=0
                weightedError=D.T*errArr  
                print("split:dim %d, thresh %.2f ,thresh ineqal : %s, the weighted error is %.3f" % (i, threshVal,inequal,weightedError))
                # inequal 类型
                if weightedError<minError:
                    minError = weightedError
                    bestClasEat = predictedVals.copy()
                    bestStump['dim']=i
                    bestStump['thresh']=threshVal
                    bestStump['ineq']=inequal
    return bestStump,minError,bestClasEat
首先第一次训练计算出该分类器的错误率,然后继续训练,调整权重,
def adaBoostTrains(dataArr,classLabels,numIt=40):
    weakClassArr = []
    m=np.shape(dataArr)[0]
    D=np.mat(np.ones((m,1))/m)
    aggClassEst=np.mat(np.zeros((m,1)))
    for i in range (numIt):
        #利用buildStump()找到最佳的单层决策树
        bestStump,error,classEst = buildStump(dataArr,classLabels,D) #D 权重
        print("D: ",D.T)
        alpha=float(0.5*np.log((1.0-error)/max(error,1e-16)))  #alpha公式 1e是科学计数法   max确保在没有错误时除以0不会溢出
        bestStump['alpha']=alpha
        weakClassArr.append(bestStump)#  转化为list
        print("classEst:", classEst.T) #特征
        #权重的分布
        expon=np.multiply(-1*alpha*np.mat(classLabels).T,classEst)#如果分对了,则同号,分错了异号,正好对应公式
        D=np.multiply(D,np.exp(expon))
        D=D/D.sum()   
        #  ai*yi
        aggClassEst += alpha*classEst
        print("aggClassEst :" ,aggClassEst.T)
        #  sign将aggClassEst转化为[1,-1.....]的m*1的矩阵,再与特征矩阵对比,得出[1,0....],其中1为错误分类,转置之后与ones相乘得到错误分类的个数
        aggErrors=np.multiply(np.sign(aggClassEst)!= np.mat(classLabels).T,np.ones((m,1)))
        #计算错误率
        errorRate = aggErrors.sum()/m
        print("total error:",errorRate,"\n")
        if errorRate == 0.0 :break
    return weakClassArr
dataArr,classLabels=loadSimpData()
weakClassArr,aggClassEst = adaBoostTrains(dataArr,classLabels)
print(weakClassArr)
print(aggClassEst)

输出结果:





猜你喜欢

转载自blog.csdn.net/qq_28409193/article/details/79609040