支持向量机(一)——线性可分支持向量机

支持向量机(Support Vector Machine, SVM)是一种二分类模型。它的基本思想是间隔最大化。

1、线性可分支持向量机

给定训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x m , y m ) } ,其中 ( x i , y i ) 表示第 i 个训练样本。输入实例 x i R d , 标记 y i { + 1 , 1 } ,+1代表正例,-1代表反例。

假设训练集线性可分,即存在超平面能正确划分训练集,并且很容易看出这种超平面有无穷多个。分类超平面用 ω T x + b = 0 表示,对所有 ω T x + b > 0 的实例,超平面将其划分为正类;对所有 ω T x + b < 0 的实例,超平面将其划分为反例。

学习的目的,就是找到这样一个分类超平面,使其对训练集进行正确划分。上面也说了,在训练集线性可分的情况下,这样的分类超平面有无穷多个。支持向量机通过间隔最大化求最优分类超平面,这个最优超平面的解是唯一的。

1.1 函数间隔与几何间隔

函数间隔
超平面 ω T x + b = 0 关于样本点 ( x i , y i ) 的函数间隔为

(1) γ ^ i = y i ( ω T x i + b ) ,

关于训练集T的函数间隔为
(2) γ ^ = min i γ ^ i .

对于分类超平面 ω T x + b = 0 与样本 ( x i , y i ) ( ω T x i + b ) 的符号与 y i 的符号是否一致能够表示分类是否正确; | ω T x i + b | 能够相对地表示 x i 距离超平面的远近,而实例点距离分类超平面的远近可以表示分类的确信程度。所以函数间隔不仅包含了超平面是否将样本正确分类的信息,还包含了超平面对样本分类的确信度。

几何间隔
超平面 ω T x + b = 0 关于样本点 ( x i , y i ) 的几何间隔为

(3) γ i = y i ( ω T x i + b ) | | ω | | ,

关于训练集T的函数间隔为
(4) γ = min i γ i .

几何间隔是有符号距离,只有在样本点被超平面正确分类时才是实例点到超平面的距离。

由(1)~(4)可以得到

(5) γ = γ ^ | | ω | | .

1.2 间隔最大化

线性可分支持向量机的目的是找到把训练数据正确划分且几何间隔最大的分类超平面。间隔最大的分类超平面对未知实例有很好的泛化能力。

寻找几何间隔最大的超平面可以表示为优化问题:

(6) max ω , b γ = max ω , b min i γ i = max ω , b min i y i ( ω T x i + b ) | | ω | |

可以写成约束优化问题:

(7) (1) max ω , b γ (2) s . t . y i ( ω T x i + b ) | | ω | | γ

把(5)代入(7)中,得到

(8) (3) max ω , b γ ^ | | ω | | (4) s . t . y i ( ω T x i + b ) γ ^

无论 γ ^ 取什么值,优化问题(8)的最优解对应的超平面和最优值总是不变的。比如取 γ ^ = 1 ,此时求出最优解为 ( ω | γ ^ = 1 , b | γ ^ = 1 ) ,对应的最优值为 1 | | ω | γ ^ = 1 | | ;现在取 γ ^ = 2 ,可以求出最优解为 ( 2 ω | γ ^ = 1 , 2 b | γ ^ = 1 ) ,对应的最优值为 1 | | ω | γ ^ = 1 | | 。可以看出,两个最优解对应的超平面是同一个超平面。

于是,令 γ = 1 ,优化问题(8)等价于优化问题

(9) (5) max ω , b 1 | | ω | | (6) s . t . y i ( ω T x i + b ) 1

而最大化 1 | | ω | | 等价于最小化 1 2 | | ω | | 2 ,于是优化问题(9)等价于

(10) (7) min ω , b 1 2 | | ω | | 2 (8) s . t . y i ( ω T x i + b ) 1

(10)就是线性可分支持向量机的最优化问题。这是一个凸二次规划问题。可以用一般的凸二次规划算法求解,也可以用优化问题的拉格朗日法求解。

1.3 对偶问题

原始优化问题(10)可以通过极大极小化拉格朗日函数得到对偶优化问题,然后根据对偶问题的最优解得到原始问题的最优解。

引入拉格朗日乘子 α i 0 , i = 1 , 2 , , m ,构建拉格朗日函数

(11) L ( ω , b , α ) = 1 2 | | ω | | 2 + i = 1 m α i ( 1 y i ( ω T x i + b ) )

原始问题的对偶问题是极大极小问题:

max α min ω , b L ( ω , b , α ) .

为了求对偶问题,首先求 min ω , b L ( ω , b , α ) ,令

(12) ω L = ω i = 1 m α i y i x i = 0

(13) b L = i = 1 m α i y i = 0

得到
(14) ω = i = 1 m α i y i x i

(15) i = 1 m α i y i = 0

代入L中,得到

(16) (9) min ω , b L ( ω , b , α ) = 1 2 ( i = 1 m α i y i x i T j = 1 m α j y j x j ) + i = 1 m α i i = 1 m α i y i ( j = 1 m α j y j x j T ) x i i = 1 m α i y i b (10) (11) = 1 2 ( i = 1 m j = 1 m α i α j y i y j x i T x j ) + i = 1 m α i i = 1 m j = 1 m α i α j y i y j x i T x j (12) (13) = 1 2 i = 1 m j = 1 m α i α j y i y j x i T x j + i = 1 m α i

然后求 min ω , b L ( ω , b , α ) α 的极大,得到:

(17) (14) max α 1 2 i = 1 m j = 1 m α i α j y i y j x i T x j + i = 1 m α i (15) (16) s . t . i = 1 m α i y i = 0 (17) (18) α i 0 , i = 1 , 2 , , m

求得的对偶问题可以重写成

(18) (19) min α 1 2 i = 1 m j = 1 m α i α j y i y j x i T x j i = 1 m α i (20) (21) s . t . i = 1 m α i y i = 0 (22) (23) α i 0 , i = 1 , 2 , , m

偶优化问题(18)的最优解和原始优化问题(10)的最优解存在,且满足KKT条件:

(19) ω L ( ω , b , α ) = ω i = 1 m α i y i x i = 0

(20) b L ( ω , b , α ) = i = 1 m α i y i = 0

(21) α i ( 1 y i ( ω T x i + b ) ) = 0 , i = 1 , 2 , , m

(22) 1 y i ( ω T x i + b ) 0 , i = 1 , 2 , , m

(23) α i 0 , i = 1 , 2 , , m

所以求出对偶问题(18)的最优解 α 后,可以根据(19)得到 ω :

(24) ω = i = 1 m α i y i x i

至于 b ,由公式(21)知道,如果 α j > 0 ,那么 1 y j ( ω T x j + b ) = 0 ,所以

(25) b = y j ω T x j = y j i = 1 m α i y i ( x i T x j )

至于怎么求解对偶问题(18),阅读SMO一节。

猜你喜欢

转载自blog.csdn.net/VictoriaW/article/details/80314411