吴恩达机器学习之支持向量机(Support Vector Machines)(三): 大边界分类背后的数学(选修)(详细笔记,建议收藏,已有专栏)

吴恩达机器学习栏目清单
专栏直达:https://blog.csdn.net/qq_35456045/category_9762715.html在这里插入图片描述

12.3大边界分类背后的数学(选修)

参考视频: 12 - 3 - Mathematics Behind Large Margin Classification (Optional) (20 min).mkv

在本节课中,我将介绍一些大间隔分类背后的数学原理。本节为选学部分,你完全可以跳过它,但是听听这节课可能让你对支持向量机中的优化问题,以及如何得到大间距分类器,产生更好的直观理解。

在这里插入图片描述

在这里插入图片描述
这就是我们先前给出的支持向量机模型中的目标函数。为了讲解方便,我做一点简化,仅仅是为了让目标函数更容易被分析。

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
以上就是为什么支持向量机最终会找到大间距分类器的原因。因为它试图极大化这些p^((i))的范数,它们是训练样本到决策边界的距离。最后一点,我们的推导自始至终使用了这个简化假设,就是参数θ_0=0。
在这里插入图片描述
就像我之前提到的。这个的作用是:θ_0=0的意思是我们让决策界通过原点。如果你令θ_0不是0的话,含义就是你希望决策界不通过原点。我将不会做全部的推导。实际上,支持向量机产生大间距分类器的结论,会被证明同样成立,证明方式是非常类似的,是我们刚刚做的证明的推广。
之前视频中说过,即便θ_0不等于0,支持向量机要做的事情都是优化这个目标函数对应着C值非常大的情况,但是可以说明的是,即便θ_0不等于0,支持向量机仍然会找到正样本和负样本之间的大间距分隔。
总之,我们解释了为什么支持向量机是一个大间距分类器。在下一节我们,将开始讨论如何利用支持向量机的原理,应用它们建立一个复杂的非线性分类器。

发布了786 篇原创文章 · 获赞 1121 · 访问量 15万+

猜你喜欢

转载自blog.csdn.net/qq_35456045/article/details/104999417