SVM:支持向量机全面解析

支持向量机(Support Vector Machine)由Cortes 和Vapnik于1995年正式发表(“Support vector networks”, Machine Learning, 20(3):273-297),由于在二维表分类任务中显示出卓越性能,很快成为机器学习的主流技术,并在2000年掀起了统计学习的高潮。
在这里插入图片描述
图(a)中红色和蓝色分别代表两个不同类别的数据,显然是线性可分的,但将两类数据点分开的直线不止一条。

  • 图的(b)和©分别给出B、C两种不同的划分方案,其中黑色实线为分界线称为划分超平面(又称决策面)。
  • 两侧虚线所穿过的样本点,就是SVM中的支持样本点,称为支持向量
  • 支持向量到超平面的距离称为间隔,显然,分类器B的分离超平面优于分类器C的,在SVM中认为分类器B的分类间隔比分类器C的分类间隔大。
  • 每一个可能把数据集正确分开的方向都有一个最优分离超平面,而不同方向的最优决策面的分类间隔通常是不同的,具有最大间隔的决策面就是SVM的最优解,称为最优超平面
SVM(一):线性支持向量机

1.1 问题定义   1.2 对偶问题    1.3 问题求解

SVM(二):软间隔与正则化

2.1 软间隔    2.2 正则化

SVM(三):非线性支持向量机

3.1 问题定义     3.2 核函数

SVM(四):支持向量回归

4.1 问题定义   4.2 对偶问题

发布了14 篇原创文章 · 获赞 17 · 访问量 798

猜你喜欢

转载自blog.csdn.net/apr15/article/details/104741837