Support Vector Machine

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/bryant_meng/article/details/83422849


1 SVM

目标函数
在这里插入图片描述

详细的推导可以看 支持向量机原理篇之手撕线性SVM [★★★★★ 推荐], 此处不赘述,看完后,看能不能回答如下几个问题:

  • margin 的求法,1的由来(放缩)
  • min max L 中 max 由来(min max L 等价于 带约束的最小值——目标函数)
  • min max L = max min L (强对偶)的由来(强对偶的等价条件是1.凸优化,2.满足 KKT条件)
  • min L 先求(w,b)最小值,之后 max 求 a 的最大值(二次规划方法),可以用 smo 方法,也可以用下面小例子1的方法(max 转化为 min优化问题)

小例子:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

2 SVM+soft margin

在这里插入图片描述

在这里插入图片描述

扫描二维码关注公众号,回复: 3839173 查看本文章

3 SVM + kernel function

在这里插入图片描述
x T y x^Ty ,涉及到内积,注意,先对x,y平方(核函数映射),然后再算内积,等价于先算内积再平方(核函数映射)

我们要把数据映射到高维,然后分开(目标函数中出现内积),等价于在低维先内积,再映射到高维
在这里插入图片描述
例如,高斯核函数,把每个样本变都映射成一个高斯分布

在这里插入图片描述

4 SVM + regression


  1. 机器学习第二阶段:机器学习经典算法(5)——支持向量机 ↩︎

猜你喜欢

转载自blog.csdn.net/bryant_meng/article/details/83422849