LIBSVM学习总结

Support Vector Machines,SVM,支持向量机


各种SVM


C -Support Vector Classi cation

训练向量 — x i R n , i = 1 , , l
两个类class
指标向量 — y R l y i { 1 , 1 }
C -SVC解决如下原始优化问题:

这里写图片描述

ϕ ( x i ) x i 映射到更高维空间, C > 0 为正则化参数。

由于向量参数 w 的可能的高维度,通常我们解决如下对偶问题

这里写图片描述

e = [ 1 , , 1 ] T 为全为1的向量
Q — 一个 l × l 的半正定矩阵positive semidefinite matrix
Q i j y i y j K ( x i , x j )
K ( x i , x j ) ϕ ( x i ) T ϕ ( x j ) — 核函数

问题(2)解决后,使用 primal-dual relationship 原始-对偶关系,最优的 w 满足:

这里写图片描述

决策函数为

这里写图片描述

为进行预测,存储如下参数:

y i α i , i
b
标签名称
其他参数 如 — 核参数


ν -Support Vector Classi cation

引入了新的参数 — ν ( 0 , 1 ]

这里写图片描述

对偶问题为

这里写图片描述

当且仅当

这里写图片描述

问题才有意义

决策函数为

这里写图片描述

可用 e T α = ν 替代 e T α ν

LIBSVM解决一个缩放版的问题,这是因为 α i 1 / l 可能过小。

这里写图片描述

α 对于对偶问题(5)是最优的
ρ 对于原始问题(4)是最优的
则, α / ρ 是带有 C = 1 / ( ρ l ) C -SVM的一个最优解,因此,在LIBSVM模型中的输出为 ( α / ρ , b / ρ )


Distribution Estimation (One-class SVM)

单类别SVM

无类别信息

这里写图片描述

对偶问题为

这里写图片描述

决策函数为

这里写图片描述

缩放版

这里写图片描述


 ϵ -Support Vector Regression ( ϵ -SVR)

训练点集 — { ( x 1 , z 1 ) , , ( x l , z l ) }
x i R n — 特征向量
z i R 1 — 目标输出
给定参数 — C > 0 ϵ > 0 ,支持向量回归的标准形式为:

这里写图片描述

对偶问题为

这里写图片描述

在解决问题(9)后,估计函数为

这里写图片描述

输出为 — α α


 ν -Support Vector Regression ( ν -SVR)

这里写图片描述

对偶问题为

这里写图片描述

估计函数为

这里写图片描述

e T ( α + α ) C ν 可替换为等式

C ¯ = C / l

这里写图片描述

如下二者有相同解
1. ϵ -SVR — 参数 ( C ¯ , ϵ )
2. ν -SVR — 参数 ( l C ¯ , ν )


性能度量


分类

这里写图片描述


回归

这里写图片描述


整体组织

这里写图片描述

猜你喜欢

转载自blog.csdn.net/u010203404/article/details/80349910