超平面数学解释
w™x+b=0 ™是转置的意思,找不到别的符号了QAQ
w是权重(weight)(列向量),是一个向量;
x是特征向量(列向量),比如一个对象有两个特征,那么x=[x₁,x₂]
这时我们说x的维度是2;
w的维度与x的维度一致;
b是偏置(bias),是一个常数;
- 问题:如何将○和×进行分类?
正如上图所示,我们画一条直线,在直线左边的是○,在直线右边的是×。
而x₁、x₂则是我们从○和×中提取出来的,能区分它们的特征,记作x=[x₁,x₂]。
也就是说,只要我们找到这条直线,我们就能区分○和×了。
(PS:细心的你一定发现,红色直线和蓝色直线都能区分○和×,只不过红色是最优的那条直线) - 直线方程
我们都知道,直线方程的一般式是,Ax+By+C=0。
结合上图并且为了更加简洁,我们可以改写成:
w™x+b=0
w=[w₁,w₂] (这里对应A,B)
x=[x₁,x₂] (这里对应x,y)
- 平面方程 (空间几何的平面方程)
平面方程的一般式是这样的:Ax+By+Cz+D=0
按照上述逻辑,我们依然可以写成:
w™x+b=0
只不过此时特征向量x以及权重w里面有三个值
- 超平面
我们向更高维度拓展,当特征向量x有n个维度时,我们依然写成:
w™x+b=0
PS:直线->平面->空间->超平面
-
机器学习
特征向量x是我们提取特征时所量化的数据,是已知的。
所以机器学习做的事情就是通过数据和算法,找到合适的(w,b),以此获得"最优"的模型 -
拓展
不是所有对象都能通过一条简单的直线,平面来进行分类的;换句话说,大部分对象都只能被非线性模型区分,这里只讨论直线只是为了好讲述
PS: 这是我结合胡老师的讲解以及自己的一些看法所写出来的,如果文中有错误的地方,还请大家及时提醒,谢谢。
附上胡老师的视频链接https://www.bilibili.com/video/av77638697?from=search&seid=16495912457184401210 (●ˇ∀ˇ●)