SVM学习1

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/Discoverhfub/article/details/81192515

在移动机器人跟随项目过程中使用到svm
了解SVM
支持向量机(support vector machine)-解决图像分类问题;这个确实不太好理解,通俗来讲,它是一种二类分类模型。
线性分类的一个例子
这里写图片描述
SVM大概的可以不确切的分为三个程度理解:
(1)线性可分情况下的线性分类器,这是最原始的SVM,它最核心的思想就是最大的分类间隔(margin maximization);
(2)线性不可分情况下的线性分类器,引入了软间隔(soft margin)的概念;
(3)线性不可分情况下的非线性分类器,是SVM与核函数(kernel function)的结合。
什么是最大分类间隔
理论上这个决策边界有无数种选择,就像图中画出的四条黑色的线,都能实现分类,但是哪一种是最好的分类方式呢?SVM算法认为在上图中靠近决策平边界的点(正负样本)与决策边界的距离最大时,是最好的分类选择:
这里写图片描述
上图中红色的线就是要优化的目标,它表征了数据到决策边界的距离,这个距离就是所谓的最大分类间隔。同时在上面的几个数据,如果靠近两侧的数据少了几个,也不会影响决策边界的确定,而被红色框框出来三个数据才决定了最终的决策边界,所以这三个数据被称之为支持向量

未完待续

猜你喜欢

转载自blog.csdn.net/Discoverhfub/article/details/81192515