用一张图理解SVM的脉络

导言
SVM在之前的很长一段时间内是性能最好的分类器,它有严密而优美的数学基础作为支撑。在各种机器学
习算法中,它是最不易理解的算法之一,要真正掌握它的原理有一定的难度。在本文中,SIGAI将带领大
家通过一张图来理清SVM推导过程的核心过程。

简介

在各种机器学习算法中,SVM是对数学要求较高的一种,一直以来不易被初学者掌握。如果能把握住推导的整体思路,则能降低理解的难度,在本文中SIGAI将通过一张图来为大家讲述SVM的整个推导过程。

SVM由Vapnik等人在1995年提出,在出现之后的20多年里它是最具影响力的机器学习算法之一。在深度学习技术出现之前,使用高斯核的SVM在很多问题上一度取得了最好的效果。SVM不仅可以用于分类问题,还可以用于回归问题。它具有泛化性能好,适合小样本等优点,被广泛应用于各种实际问题。

下面我们开始整个推导过程。先看这张图:

最简单的SVM从线性分类器导出,根据最大化分类间隔的目标,我们可以得到线性可分问题的SVM训练时求解的问题。但现实应用中很多数据是线性不可分的,通过加入松弛变量和惩罚因子,可以将SVM推广到线性不可分的情况,具体做法是对违反约束条件的训练样本进行惩罚,得到线性不可分的SVM训练时优化的问题。这个优化问题是一个凸优化问题,并且满足Slater条件,因此强对偶成立,通过拉格朗日对偶可以将其转化成对偶问题求解。

到这里为止,支持向量机还是一个线性模型,只不过允许有错分的训练样本存在。通过核函数,可以将它转化成非线性模型,此时的对偶问题也是一个凸优化问题。这个问题的求解普遍使用的是SMO算法,这是一种分治法,它每次选择两个变量进行优化,这两个变量的优化问题是一个带等式和不等式约束条件的二次函数极值问题,可以求出公式解,并且这个问题也是凸优化问题。优化变量的选择通过KKT条件来确定。

下面我们按照这个思路展开,给出SVM完整的推导过程,难点在于拉格朗日对偶和KKT条件。


预备知识

为了大家能够理解推导过程,我们先介绍KKT条件。在微积分中我们学习过,带等式约束的最优化问题可以用拉格朗日乘数法求解,对于既有等式约束又有不等式约束的问题,也有类似的条件定义函数的最优解-这就是KKT条件。对于如下优化问题:

其中 \lambda_{j}\mu_{k} 称为拉格朗日乘子。最优解 x^{*} 必须满足如下条件:



下面介绍拉格朗日对偶。对偶是最求解优化问题的一种手段,它将一个优化问题转化为另外一个更容易求解的问题,这两个问题是等价的。常见的对偶有拉格朗日对偶、Fenchel对偶。这里我们介绍拉格朗日对偶。


对于如下带等式约束和不等式约束的最优化问题:

仿照拉格朗日乘数法构造如下广义拉格朗日函数:


同样的称 \lambda_{i},\nu_{i} 为拉格朗日乘子。变量 \lambda_{i}必须满足 \lambda_{i}\geq 0 的约束。接下来将上面的问题转化为如下所谓的原问题形式,其最优解为:

等式右边的含义是先固定住变量x,将其看成常数,让拉格朗日函数对乘子变量 \lambda,\nu 求最大值。消掉这两组变量之后,再对变量x求最小值。为了简化表述,定义如下最大化问题:


这是一个对乘子变量求最大值的问题,将x看成常数。这样原问题被转化为先对乘子变量求最大值,再对x求最小值。这个原问题和我们要求解的最小化问题有同样的解,如果x违反了等式或不等式约束,上面问题的最优解是无穷大,因此不可能是问题的解。如果x满足等式和不等式约束,上面的问题的最优解就是 f(x) , 因此二者等价。通过这样的构造,将带约束条件的问题转化成对x没有约束的问题。详细的证明在SIGAI后续的文章中会给出。

接下来定义对偶问题与其最优解:

和上面的做法相反,这里是先固定拉格朗日乘子,调整x让拉格朗日函数对x求极小值;然后再调整拉格朗日乘子对函数求极大值。

原问题和对偶问题只是改变了求极大值和极小值的顺序,每次操控的变量是一样的。如果原问题和对偶问题都存在最优解,则对偶问题的最优值不大于原问题的最优值,即:

这称为弱对偶,后面的文章中我们会给出证明。原问题最优值和对偶问题最优值的差 p^{*}-d^{*} 称为对偶间隙。如果原问题和对偶问题有相同的最优解,我们就可以把求解原问题转化为求解对偶问题,这称为强对偶。强对偶成立的一种前提条件是Slater条件。

Slater条件指出,一个凸优化问题如果存在一个候选x使得所有不等式约束都严格满足,即对于所有的i都有 g_{i}\left( x \right)<0 不等式不取等号。则存在 x_{*},\lambda_{*},\nu_{*}使得它们分别为原问题和对偶问题的最优解,并且:

Slater条件是强对偶成立的充分条件而不是必要条件。强对偶的意义在于:我们可以将求原问题转化为求对偶问题,有些时候对偶问题比原问题更容易求解。强对偶只是将原问题转化成对偶问题,而这个对偶问题怎么求解则是另外一个问题。

线性可分的情况

首先我们来看最简单的情况,线性可分的SVM。对于二分类问题,线性分类器用一个超平面将两类样本分开,对于二维平面,这个超平面是一条直线。线性分类器的判别函数为:


上面的两个线性分类器都可以将两类样本分开,既然有不止一个可行的线性分类器,那么哪个分类器是最好的?SVM的目标是寻找一个分类超平面,它不仅能正确的分类每一个样本,并且要使得每一类样本中距离超平面最近的样本到超平面的距离尽可能远。

给定一批训练样本,假设样本的特征向量为x,类别标签为y,取值为+1或者-1,分别代表正样本和负样本。SVM为这些样本寻找一个最优分类超平面,其方程为:


是向量的L2范数。上面的分类超平面方程有冗余,如果将方程两边都乘以不等于0的常数,还是同一个超平面。利用这个特点可以简化问题的表述。对w和b加上如下约束:


这是上面那个不等式约束的加强版。分类超平面与两类样本之间的间隔为:

目标是使得这个间隔最大化,这等价于最小化下面的函数:


下图是线性可分的SVM示意图:


线性不可分的情况

线性可分的SVM不具有太多的实用价值,因为现实问题中样本一般都不是线性可分的,接下来我们将它进行扩展,得到能够解决线性不可分问题的模型。为了处理这个问题,当线性不可分时通过加上松弛变量和惩罚因子对错误分类的样本进行惩罚,可以得到如下最优化问题:

其中 \xi_{i} 是松弛变量,如果它不为0,表示样本突破了不等式约束条件。C为惩罚因子,是人工设定的大于0的参数,用来对突破了不等式约束条件的样本进行惩罚。可以证明这个问题是凸优化问题,因此可以保证求得全局最优解,在后面的文章中SIGAI会给出证明,请关注我们的微信公众号。


另外,上述问题是满足Slater条件的。如果令w=0,b=0,\xi_{i}=0,则有:


对偶问题

下面介绍如何将原问题转化成对偶问题。首先将上面最优化问题的等式和不等式约束方程写成标准形式:



由于有等式约束 a_{i}+b_{i}=c , 并且有不等式约束 \beta_{i}\geq 0 , 因此有 \alpha_{i} \leq c

这等价与如下最优化问题

转化成对偶问题之后,不等式和等式约束都很简单,求解更为容易。可以证明,上面这个问题是也凸优化问题,可以保证求得全局最优解,在SIGAI后续的文章中我们将给出证明,请大家关注我们的微信公众号。将w的值代入超平面方程,最后的策函数为:


那些 \alpha_{i}\ne 0 的样本即为支持向量,下面是支持向量的示意图:


核函数

虽然加入了松弛变量和惩罚因子,但支持向量机还是一个线性模型,只是允许错分样本的存在,这从它的决策函数也可以看出来。接下来要介绍的核映射使得支持向量机成为非线性模型,决策边界不再是线性的超平面,而可以是形状非常复杂的曲面。

如果样本线性不可分,可以对特征向量进行映射将它转化到一般来说更高维的空间,使得在该空间中是线性可分的,这种方法在机器学习中被称为核技巧。核映射将特征向量变换到另外一个空间:

在对偶问题中计算的是两个样本向量之间的内积,因此映射后的向量在对偶问题中为:

直接计算效率太低,而且不容易构造映射函数。如果映射函数选取得当,能够确保存在函数K,使得下面等式成立:
这样只需先对向量做内积然后用函数K进行变换,这等价于先对向量做核映射然后再做内积。在这里我们看到了求解对偶问题的另外一个好处,对偶问题中出现的是样本特征向量之间的内积,而核函数刚好作用于这种内积,替代对特征向量的核映射。满足上面条件的函数称为核函数,常用的核函数有以下几种:

核函数的精妙之处在于不用真的对特征向量做核映射,而是直接对特征向量的内积进行变换,而这种变换却等价于先对特征向量做核映射然后做内积。


为向量加上核映射后,要求解的最优化问题变为:

根据核函数满足的等式条件,它等价于下面的问题:

最后得到的分类判别函数为:


和不用核映射相比,只是求解的目标函数、最后的判定函数对特征向量的内积做了核函数变换。如果K是一个非线性函数,上面的决策函数则是非线性函数,此时SVM是非线性模型。当训练样本很多、支持向量的个数很大的时候,预测时的速度是一个问题,因此很多时候我们会使用线性支持向量机。

如果我们定义矩阵Q,其元素为:


同时定义矩阵K,其元素为:


可以证明,这个对偶问题同样是凸优化问题,这是由核函数的性质保证的,在SIGAI公众号SVM系列的后续文章中我们会介绍。下图是使用高斯核的SVM对异或问题的分类结果:


只要参数设置得当,使用高斯核的支持向量机确实能解决非线性分类问题,分类边界可以是非常复杂的曲线。


KKT条件

对于带等式和不等式约束的问题,在最优点处必须满足KKT条件,将KKT条件应用于SVM原问题的拉格朗日乘子函数,得到关于所有变量的方程,对于原问题中的两组不等式约束,根据KKT条件必须满足:





上面第一种情况对应的是自由变量即非支持向量,第二种情况对应的是支持向量,第三种情况对应的是违反不等式约束的样本。在后面的求解算法中,会应用此条件来选择优化变量。

SMO算法

前面我们给出了SVM的对偶问题,但并没有说明对偶问题怎么求解。由于矩阵Q的规模和样本数相等,当训练样本数很大的时候,这个矩阵的规模很大,求解二次规划问题的经典算法将会遇到性能问题。下面将介绍SVM最优化问题的高效求解算法-经典的SMO算法。


SMO算法由Platt等人在1998年提出,是求解SVM对偶问题的高效算法。这个算法的思路是每次在优化变量中挑出两个分量进行优化,而让其他分量固定,这样才能保证满足等式约束条件,这是一种分治法的思想。







利用这两个变量的等式约束条件,可以消掉 \alpha_{i} 只剩下一个变量 \alpha_{j} ,目标函数是它的二次函数。我们可以直接求得这个二次函数的极值,假设不考虑约束条件得到的极值点为,则最终的极值点为:

上图中第一种情况是抛物线的最小值点在[L,H]中;第二种情况是抛物线的最小值点大于H,被截断为H;第三种情况是小于L,被截断为L。





目标函数的二阶导数为 \eta ,前面假设二阶导数 \eta>0 ,从而保证目标函数是凸函数即开口向上的抛物线,有极小值。如果 \eta<0 或者 \eta=0 ,该怎么处理?对于线性核或正定核函数,可以证明矩阵K的任意一个上述子问题对应的二阶子矩阵半正定,因此必定有 \eta\geq0 ,SIGAI公众号后面的文章中我们会给出证明。无论本次迭代时 \alpha_{i}\alpha_{j} 的初始值是多少,通过上面的子问题求解算法得到是在可行域里的最小值,因此每次求解更新这两个变量的值之后,都能保证目标函数值小于或者等于初始值,即函数值下降。


上面已经解决了两个变量问题的求解,接下来说明怎么选择这两个变量,最简单的是使用启发式规则。第一个变量的选择方法是在训练样本中选取违反KKT条件最严重的那个样本。在前面我们推导过,在最优点处训练样本是否满足KKT条件的判据是:


首先遍历所有满足约束条件 0<\alpha_{i}<C 的样本点,即位于间隔边界上的支持向量点,检验它们是否满足KKT条件。如果这些样本都满足KKT条件,则遍历整个训练样本集,判断它们是否满足KKT条件,直到找到一个违反KKT条件的变量 \alpha_{i} ,找到了第一个变量之后,接下来寻找 \alpha_{j} ,选择的标准是使得它有足够大的变化。根据前面的推导我们知道 a_{j}^{new} 依赖于 |E_{i}-E_{j}|,因此,我们选择使得|E_{i}-E_{j}|最大的 \alpha_{j} 。由于 a_{j} 已经选出来了,因此 E_{j} 已经知道了。如果 E_{i}>0 则选择最小的E_{j},否则选择最大的E_{j}

至此,我们给出了支持向量机求解的问题的完整推导过程,通过这张图,你将能更容易地理解这个算法,如果在理解的过程中有任何疑问,可以向SIGAI公众号发消息,我们将为你解答。


推荐文章
[1]  机器学习-波澜壮阔40年 SIGAI 2018.4.13.
[2]  学好机器学习需要哪些数学知识?SIGAI 2018.4.17.
[3]  人脸识别算法演化史 SIGAI 2018.4.20.
[4]  基于深度学习的目标检测算法综述 SIGAI 2018.4.24.
[5]  卷积神经网络为什么能够称霸计算机视觉领域? SIGAI 2018.4.26



猜你喜欢

转载自blog.csdn.net/sigai_csdn/article/details/80751208
今日推荐