超平面思想推导

超平面数学解释

w™x+b=0        ™是转置的意思,找不到别的符号了QAQ
w是权重(weight)(列向量),是一个向量;
x是特征向量(列向量),比如一个对象有两个特征,那么x=[x₁,x₂]
这时我们说x的维度是2;
w的维度与x的维度一致;
b是偏置(bias),是一个常数;
  • 问题:如何将○和×进行分类?
    在这里插入图片描述
    正如上图所示,我们画一条直线,在直线左边的是○,在直线右边的是×。
    而x₁、x₂则是我们从○和×中提取出来的,能区分它们的特征,记作x=[x₁,x₂]。
    也就是说,只要我们找到这条直线,我们就能区分○和×了。
    (PS:细心的你一定发现,红色直线和蓝色直线都能区分○和×,只不过红色是最优的那条直线)
  • 直线方程
    我们都知道,直线方程的一般式是,Ax+By+C=0。
    结合上图并且为了更加简洁,我们可以改写成:
 w™x+b=0
 w=[w₁,w₂]        (这里对应A,B)
 x=[x₁,x₂]        (这里对应x,y)
 w™x+b=0
 只不过此时特征向量x以及权重w里面有三个值
  • 超平面
    我们向更高维度拓展,当特征向量x有n个维度时,我们依然写成:
 w™x+b=0

PS:直线->平面->空间->超平面

  • 机器学习
    特征向量x是我们提取特征时所量化的数据,是已知的。
    所以机器学习做的事情就是通过数据和算法,找到合适的(w,b),以此获得"最优"的模型

  • 拓展
    不是所有对象都能通过一条简单的直线,平面来进行分类的;换句话说,大部分对象都只能被非线性模型区分,这里只讨论直线只是为了好讲述

PS: 这是我结合胡老师的讲解以及自己的一些看法所写出来的,如果文中有错误的地方,还请大家及时提醒,谢谢。
附上胡老师的视频链接https://www.bilibili.com/video/av77638697?from=search&seid=16495912457184401210 (●ˇ∀ˇ●)

猜你喜欢

转载自blog.csdn.net/kedacpu/article/details/104673118
今日推荐