支持向量机(SVM) | 核技巧于SMO算法的实现

版权声明:===版权所有,如需转载,请联系作者=== https://blog.csdn.net/sudden2012/article/details/82818560

01 核技巧

关于支持向量机,我们有这样的共识:

  1. 支持向量机是一种分类器,之所以叫“机”是因为它会产生一个二值决策结果,是一种决策机;
  2. 支持向量机的泛化误差较低,即,有良好的学习能力,且学到的模型具有很好的推广性,因此被认为是监督学习中最好的定式算法;
  3. 支持向量机通过求解一个二次优化问题来最大化分类间隔,在过去,训练SVM常采用非常复杂且低效的二次规划求解方法;1998年,Platt提出SMO算法,通过每次只优化两个alpha值来加快SVM训练速度。

这篇文章中,我用python3实现了SMO算法,但是呢还有一个问题没有解决:

对于非线性数据集(比如圆环状分布的数据集),该如何分类呢?

我们可以将输入空间的样本特征映射到高维特征空间,使得原本非线性的数据集变得线性可分,这就是“核技巧”,核技巧的一个形象过程,如下图所示:

本文将利用核技巧,改进之前写的SMO算法,用于分类非线性数据集,一起来看看吧~


02 核函数

核函数可以自己构造,不过实际应用中我们常使用已有的核函数,不同的核函数适用于不同分布的数据集,典型的几个核函数如下:

其中,高斯径向基函数适用于圆环状分布的数据集,本文将利用径向基函数对数据进行核技巧处理。


03 算法实现

整体逻辑与SMOpro一致,差别只在于用K(x,xi)替换了X,Xi内积

3.1辅助函数

def loadDataSet(filename):
    #filename是待读取文件的文件名或路径+文件名
    dataMat=[];labelMat=[]
    fr=open(filename)
    for line in fr.readlines():
        lineArr=line.strip().split("\t")
        dataMat.append([float(lineArr[0]),float(lineArr[1])])
        labelMat.append(float(lineArr[2]))
    return dataMat,labelMat

def randPickj(i,m):
    #i是alphai的i值,整数; m是alpha个数; j不能等于i
    j=i
    while j==i:
        j=int(np.random.uniform(0,m))
    return j

def clipAlpha(aj,H,L):
    if aj>H:
        aj=H
    if aj<L:
        aj=L
    return aj

3.2 核转换函数(关键点)

# X为数据集特征矩阵,A为X[i,:]
# kTup为元组类型,第一个参数表示所用核函数类型,第二个参数表示径向基函数对应的到达率(大小与支持向量对分离超平面的影响程度正相关)
def kernelTrans(X,A,kTup):
    m,n=X.shape
    K=np.mat(np.zeros((m,1)))
    if kTup[0]=="lin": #核函数类型为 线性函数
        K=X*A.T
    elif kTup[0]=="rbf": #核函数为 径向基函数
        for j in range(m): #遍历每个样本
            deltaRow=X[j,:]-A #Xj-Xi
            K[j]=deltaRow*deltaRow.T #||Xj-Xi||**2
        K=np.exp(K/-kTup[1]**2) #径向基函数公式
    else:
        raise NameError("Kernel not recognized")
    return K
#这里构造一个对象,目的是将此对象作为一个数据结构来使用
class optStruct:
    def __init__(self,data,label,C,toler,kTup):
        #全局变量
        self.X=data
        self.labelMatrix=label
        self.C=C
        self.toler=toler
        self.m=data.shape[0] #m为样本数
        
        #初始化alpha矩阵、b、Es矩阵
        self.alphas=np.mat(np.zeros((self.m,1)))
        self.Es=np.mat(np.zeros((self.m,2))) #缓存误差,两列,第一列表示当前Ei是否有效,第二列表示当前的Ei值
        self.b=0
        
        #核技巧增加项,初始化K矩阵(K矩阵用于存放K(xi,xj),维度为m*m)
        self.K=np.mat(np.zeros((self.m,self.m)))
        for i in range(self.m):
            self.K[:,i]=kernelTrans(self.X,self.X[i,:],kTup)
    
def calcEk(oS,k):
    gxk=float(np.multiply(oS.alphas,oS.labelMatrix).transpose()*oS.K[:,k]+oS.b)
    Ek=gxk-float(oS.labelMatrix[k])
    return Ek
    
#选择相较ai具有最大步长(即Ei-Ej)的aj的函数
def selectJ(oS,i,Ei):
    maxK=-1;maxDeltaE=0;Ej=0 #DeltaE表示Ei-Ej,k表示DeltaE最大的样本点索引值,最终会将Ek赋值给Ej
    oS.Es[i]=[1,Ei] #使Es矩阵第i位有效
    validEsList=np.nonzero(oS.Es[:,0].A)[0] #将Es矩阵中有效的Ei对应的索引值选出来,作为挑选j的池子
        
    if len(validEsList)>1:
        for k in validEsList:
            if k==i:
                continue
            Ek=calcEk(oS,k)
            deltaE=abs(Ei-Ek)
            if deltaE>maxDeltaE:
                maxDeltaE=deltaE;maxK=k;Ej=Ek
        return maxK,Ej
    else: #若validEsList只有一个Ei有效(初次循环),则随机选取一个j
        j=randPickj(i,oS.m)
        Ej=calcEk(oS,j)
    return j,Ej
    
def updateEk(oS,k):
    Ek=calcEk(oS,k)
    oS.Es[k]=[1,Ek]

3.3 内循环

def innerL(i,oS):
    Ei=calcEk(oS,i)
    
    #判断Ei是否是违反KKT条件超过toler的点,若是再继续挑选j
    if (oS.labelMatrix[i]*Ei<-oS.toler and oS.alphas[i]<oS.C) or (oS.labelMatrix[i]*Ei>oS.toler and oS.alphas[i]>0):
        j,Ej=selectJ(oS,i,Ei)
        alphaIold=oS.alphas[i].copy();alphaJold=oS.alphas[j].copy()
        
        #计算L,H
        if oS.labelMatrix[i]!=oS.labelMatrix[j]:
            L=max(0,oS.alphas[j]-oS.alphas[i]) #这里alpha[i]仍然等于alphaIold
            H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i])         
        else:
            L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C)
            H=min(oS.C,oS.alphas[j]+oS.alphas[i])
        if L==H:
            print ("L==H")
            return 0 #第一个跳出条件(跳出本次内循环,遍历下一个alpha进行更新)
        
        #计算eta
        eta=oS.K[i,i]+oS.K[j,j]-2.0*oS.K[i,j]
        if eta==0:
            print ("eta=0")
            return 0 #第二个跳出条件(因为eta=0不好处理,且出现情况较少,因此这里咱不处理,直接跳出)
                    
        #根据统计学习方法中的结果公式得到alphaj的解析解,并更新Ej值
        oS.alphas[j]=oS.alphas[j]+oS.labelMatrix[j]*(Ei-Ej)/eta
        oS.alphas[j]=clipAlpha(oS.alphas[j],H,L)
        updateEk(oS,j) #更新Ej值
        
        #检验alphaj与alphaJold是否有足够大的改变,若改变不够大,说明与alpha旧值没有什么差异,跳出本次内循环
        if abs(oS.alphas[j]-alphaJold)<0.00001:
            print ("j not moving enough")
            return 0 #第三个跳出条件
                    
        #约束条件让我们可以根据alphaJ求出alphaI
        oS.alphas[i]=oS.alphas[i]+oS.labelMatrix[i]*oS.labelMatrix[j]*(alphaJold-oS.alphas[j])
        updateEk(oS,i) #更新Ei值
        
        #更新b值,根据alpha是否在0~C决定更新的b值
        b1=-Ei-oS.labelMatrix[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i]\
        -oS.labelMatrix[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]+oS.b
                
        b2=-Ej-oS.labelMatrix[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j]\
        -oS.labelMatrix[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]+oS.b
                
        #若ai或aj在(0,C)之间,则取b=bi或b=bj,若ai aj都不在(0,C)之间,取均值
        if oS.alphas[i]>0 and oS.alphas[i]<oS.C:
            oS.b=b1
        elif oS.alphas[j]>0 and oS.alphas[j]<oS.C:
            oS.b=b2
        else:
            oS.b=(b1+b2)/2.0
        return 1 #若执行到这里都没有return0跳出,说明已经完成了一个alpha对的更新,返回一个1
    
    else:
        return 0 #若ai不足够违反KKT条件,则return0跳出本次内循环

3.4 外循环

def SMOpro(data,label,C,toler,maxIter,kTup):
    oS=optStruct(np.mat(data),np.mat(label).transpose(),C,toler,kTup)
    iter=0;entireSet=True;alphaPairsChanged=0
    
    #当迭代次数达到上限(这里的迭代次数只要完成一次循环遍历就+1,不论该次循环遍历是否修改了alpha对),或全集再无可修改的alpha对时,循环停止,计算完成
    while (iter<maxIter) and (entireSet or alphaPairsChanged>0):
        alphaPairsChanged=0
        if entireSet: #全集遍历
            for i in range(oS.m):
                alphaPairsChanged+=innerL(i,oS)
                print ("fullset, iter:%d i:%d, pairsChanged: %d" %(iter,i,alphaPairsChanged))
            iter+=1 #这里的迭代次数只要完成一次循环遍历就+1,不论该次循环遍历是否修改了alpha对
        
        else: #边界遍历
            boundIs=np.nonzero((oS.alphas.A>0)*(oS.alphas.A<oS.C))[0] #选择0<alpha<C的样本点的索引值(即边界点)
            for i in boundIs:
                alphaPairsChanged+=innerL(i,oS)
                print ("bound, iter:%d i:%d, pairsChanged: %d" %(iter,i,alphaPairsChanged))
            iter+=1
            
        #控制遍历往返于全集遍历和边界遍历
        if entireSet:
            entireSet=False #若本轮是全集遍历,则下一轮进入边界遍历(下一轮while条件中的entire是False)
        elif alphaPairsChanged==0:
            entireSet=True  #若本轮是边界遍历,且本轮遍历未修改任何alpha对,则下一轮进入全集遍历
        print ("iteration number: %d" %iter)
    return oS.b,oS.alphas

04 测试

我们用两个圆环分布的数据集测试这个利用了核技巧的SMO算法,数据集分布如下:

4.1 参数训练函数

def testRBF(C,toler,maxIter,kTup):
    #训练参数
    data,label=loadDataSet("testSetRBF.txt")
    b,alphas=SMOpro(data,label,C,toler,maxIter,kTup)
    print (b,"\n",alphas[alphas>0])

    #找到支持向量
    dataMat=np.mat(data);labelMat=np.mat(label).transpose()
    svInd=np.nonzero(alphas.A>0)[0] #返回alpha>0的点的索引(即,支持向量点位置)
    svs=dataMat[svInd];labelSV=labelMat[svInd] #支持向量样本点特征和类型
    print ("There are %d Support Vectors" %svs.shape[0])
    
    #模型对于训练集的预测误差
    m,n=dataMat.shape;errorCount=0
    for i in range(m):
        kernelEval=kernelTrans(svs,dataMat[i,:],kTup) #只映射支持向量到特征空间
        predict=kernelEval.T*np.multiply(labelSV,alphas[svInd])+b #wiX+b
        if np.sign(predict)!=np.sign(label[i]): #sign(x)为判别函数,X>0输出1,否则输出-1
            errorCount+=1
    print ("The training error rate is {0}%".format(float(errorCount)/m))
    
    #模型对于测试集的预测误差
    data2,label2=loadDataSet("testSetRBF2.txt")
    dataMat2=np.mat(data2);labelMat2=np.mat(label2).transpose()
    svInd2=np.nonzero(alphas.A>0)[0] #返回alpha>0的点的索引(即,支持向量点位置)
    svs2=dataMat2[svInd2];labelSV2=labelMat2[svInd2] #支持向量样本点特征和类型
    print ("There are %d Support Vectors" %svs2.shape[0])
    
    m2,n2=dataMat2.shape;errorCount2=0
    for i in range(m2):
        kernelEval2=kernelTrans(svs2,dataMat2[i,:],kTup) #只映射支持向量到特征空间
        predict2=kernelEval2.T*np.multiply(labelSV2,alphas[svInd2])+b #wiX+b
        if np.sign(predict2)!=np.sign(label2[i]): #sign(x)为判别函数,X>0输出1,否则输出-1
            errorCount2+=1
    print ("The training error rate is {0}%".format(100.0*float(errorCount2)/m2))
    return b,alphas,svInd,svInd2

4.2 训练&绘图

b,alphas,svInd,svInd2=testRBF(20,0.001,1000,("rbf",0.4))
plotBestFit(svInd,"testSetRBF.txt")
plotBestFit(svInd2,"testSetRBF2.txt")

得到如下输出:

直观点,我们来看看反应在图中是怎样的效果,第一张为训练集分类效果,第二张为测试集分类效果 (橙色、绿色点为支持向量):
训练集
测试集

可以看到:

  1. 径向基函数的到达率(k1)有一个最优值
    1.1 k1越大,支持向量对分离超平面影响越大,支持向量点可能越少,容易引起欠拟合,决策边界很差
    1.2 k1越小,支持向量对分离超平面影响越小,支持向量点可能越多,容易引起过拟合(极端-所有样本点都是支持向量>>KNN)
  2. 本来想用支持向量点来象征非线性数据集的分离超平面位置,但发现支持向量在图中看起来很杂乱,不过属于正常,因为支持向量是分离超平面两侧的样本点

05 总结

本文就之前写的SMO算法进行了改进,加入了核技巧可选项,可以处理非线性数据集。

这里使用的核函数是径向基函数,适用于圆环状分布的数据集,对于其他分布形状的数据集,可以增加其他核函数来处理,不过道理是一样的:将输入空间的样本特征映射到高维特征空间,使得原本非线性的数据集变得线性可分。

下期主攻AdaBoost集成算法啦,加油吧~


06 参考

  1. 《统计学习方法》 李航 Chapter7
  2. 《机器学习实战》 Peter Harrington Chapter6

猜你喜欢

转载自blog.csdn.net/sudden2012/article/details/82818560
今日推荐