SVM原理以及Tensorflow 实现SVM分类(附代码讲了一下原理)

1.1. SVM介绍

SVM(Support Vector Machines)——支持向量机是在所有知名的数据挖掘算法中最健壮,最准确的方法之一,它属于二分类算法,可以支持线性和非线性的分类。发展到今天,SVM已经可以支持多分类了,但在这一章里,我们着重讲支持向量机在二分类问题中的工作原理。
假设在一个二维线性可分的数据集中,图一A所示,我们要找到一个超平面把两组数据分开,这时,我们认为线性回归的直线或逻辑回归的直线也能够做这个分类,这条直线可以是图一B中的直线,也可以是图一C中的直线,或者图一D中的直线,但哪条直线才最好呢,也就是说哪条直线能够达到最好的泛化能力呢?那就是一个能使两类之间的空间大小最大的一个超平面。
这个超平面在二维平面上看到的就是一条直线,在三维空间中就是一个平面...,因此,我们把这个划分数据的决策边界统称为超平面。离这个超平面最近的点就叫做支持向量,点到超平面的距离叫间隔。支持向量机就是要使超平面和支持向量之间的间隔尽可能的大,这样超平面才可以将两类样本准确的分开,而保证间隔尽可能的大就是保证我们的分类器误差尽可能的小,尽可能的健壮。

图一

1.2. 工作原理

1.2.1. 几何间隔和函数间隔

在最大化支持向量到超平面距离前,我们首先要定义我们的超平面h(x)h(x)(称为超平面的判别函数,也称给定ww和bb的泛函间隔),其中ww为权重向量,bb为偏移向量:

h(x)=wTx+bh(x)=wTx+b

样本xx到最优超平面的几何间隔为:

r=h(x)||w||=wTx+b||w||r=h(x)||w||=wTx+b||w||

||w||||w||是向量ww的内积,是个常数,即||w||=w02+w12+...+wn2−−−−−−−−−−−−−−−−√||w||=w02+w12+...+wn2,而h(x)h(x)就是下面要介绍的函数间隔。

函数间隔

rˆ=h(x)r^=h(x)

函数间隔h(x)h(x)它是一个并不标准的间隔度量,是人为定义的,它不适合用来做最大化的间隔值,因为,一旦超平面固定以后,如果我们人为的放大或缩小ww和bb值,那这个超平面也会无限的放大或缩小,这将对分类造成严重影响。而几何间隔是函数间隔除以||w||||w||,当ww的值无限放大或缩小时,||w||||w||也会放大或缩小,而整个rr保持不变,它只随着超平面的变动而变动,不受两个参数的影响。因而,我们用几何间隔来做最大化间隔度量。

1.2.2. 最大化间隔

在支持向量机中,我们把几何间隔rr作为最大化间隔进行分析,并且采用-1和1作为类别标签,什么采用-1和+1,而不是0和1呢?这是由于-1和+1仅仅相差一个符号,方便数学上的处理。我们可以通过一个统一公式来表示间隔或者数据点到分隔超平面的距离,同时不必担心数据到底是属于-1还是+1类。
我们一步一步的进行分析,首先如下图,在这个R2R2空间中,假设我们已经确定了一个超平面,这个超平面的函数关系式应该是h(x)=wTx+b=0h(x)=wTx+b=0,这个式子表示我们图中的那条虚线,很明显,这个式子意思是说点x在超平面上,但我们要想使所有的点都尽可能的远离这个超平面,我们只要保证离这个超平面最近的点远离这个超平面,也就是说这些叫支持向量的点x∗x∗需要尽可能的远离它。

我们把其中一个支持向量x∗x∗到最优超平面的距离定义为:

r∗=h(x∗)||w||=⎧⎩⎨⎪⎪⎪⎪⎪⎪1||w||−1||w||if:y∗=h(x∗)=+1if:y∗=h(x∗)=−1r∗=h(x∗)||w||={1||w||if:y∗=h(x∗)=+1−1||w||if:y∗=h(x∗)=−1

这是我们通过把函数间隔h(x)h(x)固定为1而得来的。我们可以把这个式子想象成还存在两个平面,这两个平面分别是wTxs+b=1wTxs+b=1和wTxs+b=−1wTxs+b=−1,对应上图中的两根实线。这些支持向量xsxs就在这两个平面上,这两个平面离最优超平面的距离越大,我们的间隔也就越大。对于其他的点xixi如果满足wTxi+b>1wTxi+b>1,则被分为1类,如果满足满足wTxi+b<−1wTxi+b<−1,则被分为-1类。即有约束条件:

⎧⎩⎨⎪⎪wTxi+b⩾1wTxi+b⩽−1yi=+1yi=−1{wTxi+b⩾1yi=+1wTxi+b⩽−1yi=−1

支持向量到超平面的距离知道后,那么分离的间隔ρρ很明显就为:

ρ=2r∗=2||w||ρ=2r∗=2||w||

这下我们就要通过找到最优的ww和bb来最大化ρρ了,感觉又像回到了逻辑回归或线性回归的例子。但是这里,我们最大化ρρ值需要有条件限制,即:

⎧⎩⎨⎪⎪⎪⎪maxw,b2||w||yi(wTxi+b)⩾1, (i=1,..,n){maxw,b2||w||yi(wTxi+b)⩾1, (i=1,..,n)

yi(wTxi+b)yi(wTxi+b)的意思是通过判断yiyi和wTxi+bwTxi+b是否同号来确定分类结果。
接着,为了计算方便,我们把上式最大化ρρ换成:

⎧⎩⎨⎪⎪⎪⎪minw,b12||w||2yi(wTxi+b)⩾1, (i=1,..,n){minw,b12||w||2yi(wTxi+b)⩾1, (i=1,..,n)

这种式子通常我们用拉格朗日乘数法来求解,即:

L(x)=f(x)+∑αg(x)L(x)=f(x)+∑αg(x)

f(x)f(x)是我们需要最小化的目标函数,g(x)g(x)是不等式约束条件,即前面的yi(wTxi+b)⩾1yi(wTxi+b)⩾1,αα是对应的约束系数,也叫拉格朗日乘子。为了使得拉格朗日函数得到最优化解,我们需要加入能使该函数有最优化解法的KKT条件,或者叫最优化条件、充要条件。即假设存在一点x∗x∗

1.2.2.0.0.1. L(x∗)L(x∗)对x∗x∗求导为0

1.2.2.0.0.2. αigi(x∗)=0αigi(x∗)=0,对于所有的i=1,.....,ni=1,.....,n

这样构建我们的拉格朗日函数为:

L(w,b,α)=12wTw−∑i=1nαi[yi(wTxi+b)−1]L(w,b,α)=12wTw−∑i=1nαi[yi(wTxi+b)−1]

以上的KKT条件αi[yi(wTxi+b)−1]=0αi[yi(wTxi+b)−1]=0表示,只有距离最优超平面的支持向量(xi,yi)(xi,yi)对应的αα非零,其他所有点集的αα等于零。综上所述,引入拉格朗日乘子以后,我们的目标变为:

minw,bmaxα⩾0L(w,b,α)minw,bmaxα⩾0L(w,b,α)

即先求得αα的极大值,再求ww和bb的极小值。可以把该问题转为为等价的凸优化和对偶问题来求解,对于凸优化和对偶问题可以参考《凸优化》这本书,因为该理论可以整整用一本书来介绍了,笔者在这里也只能点到为止了。通过对偶,我们的目标可以又变成:

maxα⩾0minw,bL(w,b,α)maxα⩾0minw,bL(w,b,α)

即先求得ww和bb的极小值,在求αα的极大值。用L(w,b,α)L(w,b,α)对ww和bb分别求偏导,并令其等于0:

⎧⎩⎨⎪⎪⎪⎪∂L(w,b,α)∂w=0 ∂L(w,b,α)∂b=0{∂L(w,b,α)∂w=0 ∂L(w,b,α)∂b=0

得:

⎧⎩⎨w=∑ni=1αiyixi ∑ni=1αiyi=0{w=∑i=1nαiyixi ∑i=1nαiyi=0

把该式代入原来的的拉格朗日式子可得(推导过程省略):

W(α)=∑i=1nαi−12∑i=1n∑j=1nαiαjyiyjxiTxjW(α)=∑i=1nαi−12∑i=1n∑j=1nαiαjyiyjxiTxj

∑i=1nαiyi=0 ,αi⩾0(i=1,...,n)∑i=1nαiyi=0 ,αi⩾0(i=1,...,n)

该W(α)W(α)函数消去了向量ww和向量bb,仅剩αα这个未知参数,只要我们能够最大化W(α)W(α),就能求出对应的αα,进而求得ww和bb。对于如何求解αα,SMO算法给出了完美的解决方案,下一节我们详细讲述。这里我们假设通过SMO算法确定了最优α∗α∗,则

w∗=∑i=1nαi∗yixiw∗=∑i=1nαi∗yixi

最后使用一个正的支持向量xsxs,就可以计算出bb:

b∗=1−w∗Txsb∗=1−w∗Txs

1.3. 软间隔

在4.2节中我们推导了如何计算ww、bb和αα,但别忘了以上所有的推导都是在线性可分的条件下进行的,但是现实世界的许多问题并不都是线性可分的,尤其存在许多复杂的非线性可分的情形。如果样本不能被完全线性分开,那么情况就是:间隔为负,原问题的可行域为空,对偶问题的目标函数无限,这讲导致相应的最优化问题不可解。
要解决这些不可分问题,一般有两种方法。第一种是放宽过于严格的间隔,构造软间隔。另一种是运用核函数把这些数据映射到另一个维度空间去解决非线性问题。在本节中,我们首先介绍软间隔优化。
假设两个类有几个数据点混在一起,这些点对最优超平面形成了噪声干扰,软间隔就是要扩展一下我们的目标函数和KKT条件,允许少量这样的噪声存在。具体地说,就要引入松驰变量ξiξi来量化分类器的违规行为:

⎧⎩⎨⎪⎪⎪⎪minw,b12||w||2+C∑ni=1ξiyi(wTxi+b)⩾1−ξi,ξi⩾0,(i=1,..,n){minw,b12||w||2+C∑i=1nξiyi(wTxi+b)⩾1−ξi,ξi⩾0,(i=1,..,n)

参数C用来平衡机器的复杂度和不可分数据点的数量,它可被视为一个由用户依据经验或分析选定的“正则化”参数。松驰变量ξiξi的一个直接的几何解释是一个错分实例到超平面的距离,这个距离度量的是错分实例相对于理想的可分模式的偏差程度。对上式的化解,可得:

W(α)=∑i=1nαi−12∑i=1n∑j=1nαiαjyiyjxiTxjW(α)=∑i=1nαi−12∑i=1n∑j=1nαiαjyiyjxiTxj

∑i=1nαiyi=0,0⩽αi⩽C(i=1,...,n)∑i=1nαiyi=0,0⩽αi⩽C(i=1,...,n)

可以看到,松驰变量ξiξi没有出现在W(α)W(α)中,线性可分与不可分的差异体现在约束αi⩾0αi⩾0被替换成了约束0⩽αi⩽C0⩽αi⩽C。但是,这两种情况下求解ww和bb是非常相似的,对于支持向量的定义也都是一致的。
在不可分情况下,对应的KKT条件为:

αi[yi(wTxi+b)−1+ξi]=0,(i=1,...,n)αi[yi(wTxi+b)−1+ξi]=0,(i=1,...,n)

1.4. SMO算法

1996年, John Platt发布了一个称为SMO的强大算法,用于训练SVM。 SMO表示序列最小优化(Sequential Minimal Optimization)。 Platt的SMO算法是将大优化问题分解为多个小优化问题来求解,这些小优化问题往往很容易求解,并且对它们进行顺序求解的结果与将它们作为整体来求解的结果是完全一致的。
SMO算法的目标是求出一系列αα,一旦求出了这些αα,就很容易计算出权重向量ww和bb,并得到分隔超平面。
SMO算法的工作原理是:每次循环中选择两个αα进行优化处理。一旦找到一对合适的αα,那么就增大其中一个同时减小另一个。这里所谓的“合适”就是指两个αα必须要符合一定的条件,条件之一就是这两个αα必须要在间隔边界之外,而其第二个条件则是这两个αα还没有进行过区间化处理或者不在边界上。
对SMO具体的分析如下,在4.3节中我们已经得出了

W(α)=∑i=1nαi−12∑i=1n∑j=1nαiαjyiyjxiTxjW(α)=∑i=1nαi−12∑i=1n∑j=1nαiαjyiyjxiTxj

∑i=1nαiyi=0,0⩽αi⩽C(i=1,...,n)∑i=1nαiyi=0,0⩽αi⩽C(i=1,...,n)

其中(xi,yi)(xi,yi)已知,C可以预先设定,也是已知数,现在就是要最大化W(α)W(α),求得参数α=[α1,α2,...,αn]α=[α1,α2,...,αn]。SMO算法是一次选择两个αα进行优化,那我们就选择α1α1和α2α2,然后把其他参数[α3,α4,...,αn][α3,α4,...,αn]固定,这样α1α1、α2α2表示为下面的式子,其中ζζ是实数值:

α1y1+α2y2=−∑i=3nαiyi=ζα1y1+α2y2=−∑i=3nαiyi=ζ

然后用α2α2来表示α1α1:

α1=(ζ−α2y2)y1α1=(ζ−α2y2)y1

把上式带入W(α)W(α)中:

W(α)=W(α1,α2,...,αn)=W((ζ−α2y2)y1,α2,...,αn)W(α)=W(α1,α2,...,αn)=W((ζ−α2y2)y1,α2,...,αn)

省略一系列化解过程后,最后会化解成我们熟悉的一元二次方程,a,b,c均是实数值:

W(α2)=aα22+bα2+cW(α2)=aα22+bα2+c

最后对α2α2求导,解得α2α2的具体值,我们暂时把这个实数值叫α∗2α2∗。而这个α∗2α2∗需要满足一个条件L⩽α∗2⩽HL⩽α2∗⩽H,其中LL和HH是什么呢?如下图所示:


(图片来自网络)

根据之前的条件0⩽αi⩽C0⩽αi⩽C和等式α1y1+α2y2=ζα1y1+α2y2=ζ知α1α1和α2α2要在矩形区域内,并且在直线上。当y1y1和y2y2异号时:

⎧⎩⎨L=max(0,α2−α1)H=min(C,C+α2−α1){L=max(0,α2−α1)H=min(C,C+α2−α1)

当y1y1和y2y2同号时:

⎧⎩⎨L=max(0,α2+α1−C)H=min(C,α2+α1){L=max(0,α2+α1−C)H=min(C,α2+α1)

最后,满足条件的α2α2应该由下面的式子得到,α∗∗2α2∗∗才为最终的值:

α∗∗2=⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪Hα∗2L,α∗2>H,L≤α∗2≤H,α∗2<Lα2∗∗={H,α2∗>Hα2∗,L≤α2∗≤HL,α2∗<L

求得α∗∗2α2∗∗后我们就可以求得α∗∗1α1∗∗了。然后我们重复地按照最优化(α1,α2)(α1,α2)的方式继续选择(α3,α4)(α3,α4),(α5,α6)(α5,α6)....(αn−1,αn)(αn−1,αn)进行优化求解,这样α=[α1,α2,...,αn]α=[α1,α2,...,αn]求解出来后,整个线性划分问题就迎刃而解。

1.5. 核函数

对于以上几节讲的SVC算法,我们都在线性可分或存在一些噪声点的情况下进行的二分类,但是如果我们存在两组数据,它们的散点图如下图所示,你可以看出这完全是一个非线性不可分的问题,我们无法使用之前讲的SVC算法在这个二维空间中找到一个超平面把这些数据点准确的分开。

解决这个划分问题我们需要引入一个核函数,核函数能够恰当的计算给定数据的内积,将数据从输入空间的非线性转变到特征空间,特征空间具有更高甚至无限的维度,从而使得数据在该空间中被转换成线性可分的。如下图所示,我们把二维平面的一组数据,通过核函数映射到了一个三维空间中,这样,我们的超平面就面成了一个平面(在二维空间中是一条直线),这个平面就可以准确的把数据划分开了。

核函数有Sigmoid核、线性核、多项式核和高斯核等,其中高斯核和多项式核比较常用,两种核函数均可以把低维数据映射到高维数据。高斯核的公式如下,σσ是达到率,即函数值跌落到0的速度参数:

K(x1,x2)=exp(−||x1−x2||22σ2)K(x1,x2)=exp(−||x1−x2||22σ2)

多项式核函数的公式如下,RR为实数,dd为低维空间的维数:

K(x1,x2)=(〈x1,x2〉+R)dK(x1,x2)=(〈x1,x2〉+R)d

应用于我们的上个例子,我们先定义,用ϕ:x→Hϕ:x→H表示从输入空间x⊂Rnx⊂Rn到特征空间H的一个非线性变换。假设在特征空间中的问题是线性可分的,那么对应的最优超平面为:

wϕTϕ(x)+b=0wϕTϕ(x)+b=0

通过拉格朗日函数我们推导出:

wϕ∗=∑i=1nαi∗yiϕ(xi)wϕ∗=∑i=1nαi∗yiϕ(xi)

带入上式得特征空间的最优超平面为:

∑i=1nαi∗yiϕT(xi)ϕ(x)+b=0∑i=1nαi∗yiϕT(xi)ϕ(x)+b=0

这里的ϕT(xi)ϕ(x)ϕT(xi)ϕ(x)表示内积,用核函数代替内积则为:

∑i=1nαi∗yiK(xi,x)+b=0∑i=1nαi∗yiK(xi,x)+b=0

这说明,我们的核函数均是内积函数,通过在低维空间对输入向量求内积来映射到高维空间,从而解决在高维空间中数据线性可分的问题,至于具体的推导过程,这里就不再进行了,感兴趣的可以自己再推导一次,加深理解。
为什么核函数可以把低维数据映射成高维数据呢,我们以多项式核来解释一下。
假设有两个输入样本,它们均为二维行向量x1=[x1,x2]x1=[x1,x2],x2=[x3,x4]x2=[x3,x4],他们的内积为:

〈x1,x2〉=x1x2T=[x1x2][x3x4]=x1x3+x2x4〈x1,x2〉=x1x2T=[x1x2][x3x4]=x1x3+x2x4

用多项式核函数进行映射,令R=0R=0,d=2d=2:

K(x1,x2)=(〈x1,x2〉)2=(x1x3+x2x4)2=x12x32+2x1x2x3x4+x22x42=ϕ(x1)ϕ(x2)K(x1,x2)=(〈x1,x2〉)2=(x1x3+x2x4)2=x12x32+2x1x2x3x4+x22x42=ϕ(x1)ϕ(x2)

按照线性代数中的标准定义,ϕ(x1)ϕ(x1)和ϕ(x2)ϕ(x2)为映射后的三维行向量和三维列向量,即:

ϕ(x1)=[x122–√x1x2x22]ϕ(x1)=[x122x1x2x22]

ϕ(x2)=⎡⎣⎢⎢⎢⎢⎢⎢x322–√x3x4x42⎤⎦⎥⎥⎥⎥⎥⎥ϕ(x2)=[x322x3x4x42]

它们的内积用向量的方式表示则更直观:

ϕ(x1)ϕ(x2)=[x122–√x1x2x22]⎡⎣⎢⎢⎢⎢⎢⎢x322–√x3x4x42⎤⎦⎥⎥⎥⎥⎥⎥=x12x32+2x1x2x3x4+x22x42ϕ(x1)ϕ(x2)=[x122x1x2x22][x322x3x4x42]=x12x32+2x1x2x3x4+x22x42

这样我们就把二维数据映射成了三维数据,对于高斯核的映射,会用到泰勒级数展开式,读者可以自行推导一下。
对于核函数我们就暂时介绍到这里。下一节我们开始运用tensorflow来进行实战,由于没有找到线性不可分的数据集,我们的例子中就没有用到核函数来建模,因为我们只找到了一个线性可分的数据集,所以下一节我们仅运用tensorflow来进行线性二分类的分类器构建。

1.6. 实例

我们在网上下载了一组鸢尾花数据集,这组数据集有100个样本点,我们用SVM来预测这些鸢尾花数据集中哪些是山鸢尾花,哪些是非山鸢尾花。

  • 首先需要加载数据集,加载数据集需要用到sklearn、scipy、mkl库,sklearn直接在Pycharm中安装即可,而另外两个库需要在网上下载安装,下载地址:http://www.lfd.uci.edu/~gohlke/pythonlibs/
import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf
from sklearn import datasets

sess = tf.Session()

# 加载数据
# iris.data = [(Sepal Length, Sepal Width, Petal Length, Petal Width)]
iris = datasets.load_iris()
x_vals = np.array([[x[0], x[3]] for x in iris.data])
y_vals = np.array([1 if y == 0 else -1 for y in iris.target])
  • 分离测试集与训练集

# 分离训练和测试集
train_indices = np.random.choice(len(x_vals),
                                 round(len(x_vals)*0.8),
                                 replace=False)
test_indices = np.array(list(set(range(len(x_vals))) - set(train_indices)))
x_vals_train = x_vals[train_indices]
x_vals_test = x_vals[test_indices]
y_vals_train = y_vals[train_indices]
y_vals_test = y_vals[test_indices]

  • 定义模型和loss函数

batch_size = 100

# 初始化feedin
x_data = tf.placeholder(shape=[None, 2], dtype=tf.float32)
y_target = tf.placeholder(shape=[None, 1], dtype=tf.float32)

# 创建变量
A = tf.Variable(tf.random_normal(shape=[2, 1]))
b = tf.Variable(tf.random_normal(shape=[1, 1]))

# 定义线性模型
model_output = tf.subtract(tf.matmul(x_data, A), b)

# Declare vector L2 'norm' function squared
l2_norm = tf.reduce_sum(tf.square(A))

# Loss = max(0, 1-pred*actual) + alpha * L2_norm(A)^2
alpha = tf.constant([0.01])
classification_term = tf.reduce_mean(tf.maximum(0., tf.subtract(1., tf.multiply(model_output, y_target))))
loss = tf.add(classification_term, tf.multiply(alpha, l2_norm))

  • 开始训练数据
my_opt = tf.train.GradientDescentOptimizer(0.01)
train_step = my_opt.minimize(loss)

init = tf.global_variables_initializer()
sess.run(init)

# Training loop
loss_vec = []
train_accuracy = []
test_accuracy = []
for i in range(20000):
    rand_index = np.random.choice(len(x_vals_train), size=batch_size)
    rand_x = x_vals_train[rand_index]
    rand_y = np.transpose([y_vals_train[rand_index]])
    sess.run(train_step, feed_dict={x_data: rand_x, y_target: rand_y})
  • 绘制图像
[[a1], [a2]] = sess.run(A)
[[b]] = sess.run(b)
slope = -a2/a1
y_intercept = b/a1
best_fit = []

x1_vals = [d[1] for d in x_vals]

for i in x1_vals:
    best_fit.append(slope*i+y_intercept)


# Separate I. setosa
setosa_x = [d[1] for i, d in enumerate(x_vals) if y_vals[i] == 1]
setosa_y = [d[0] for i, d in enumerate(x_vals) if y_vals[i] == 1]
not_setosa_x = [d[1] for i, d in enumerate(x_vals) if y_vals[i] == -1]
not_setosa_y = [d[0] for i, d in enumerate(x_vals) if y_vals[i] == -1]

plt.plot(setosa_x, setosa_y, 'o', label='I. setosa')
plt.plot(not_setosa_x, not_setosa_y, 'x', label='Non-setosa')
plt.plot(x1_vals, best_fit, 'r-', label='Linear Separator', linewidth=3)
plt.ylim([0, 10])
plt.legend(loc='lower right')
plt.title('Sepal Length vs Pedal Width')
plt.xlabel('Pedal Width')
plt.ylabel('Sepal Length')
plt.show()

训练后的结果

转载注明出处http://www.cnblogs.com/vipyoumay/p/7560061.html

以上内容有任何错误或不准确的地方请大家指正,不喜勿喷! 本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。如果觉得还有帮助的话,可以点一下右下角的【推荐】,希望能够持续的为大家带来好的技术文章!想跟我一起进步么?那就【关注】我吧。

来源:https://www.cnblogs.com/vipyoumay/p/7560061.html

发布了44 篇原创文章 · 获赞 130 · 访问量 137万+

猜你喜欢

转载自blog.csdn.net/gb4215287/article/details/105507998