从最小二乘学习推出SVM

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/q__y__L/article/details/53283485

SVMSVMSVM


  1. 关于最小二乘
    便SVM,2
    首先定义误差函数
    JLS(θ)=12i=1n(fθ(xi)yi)2

    其中“LS”是Least Square的首字母,我么需要得到的是:
    θ^LS=argminθJLS(θ)

    如果使用线性模型:
    fθ(x)=j=1bθiϕi(x)=θTϕ(X)

    训练样本的平方差 JLS 就可以表示为:
    JLS(θ)=12Φθy2

    y=(y1,,yn)TnΦn×b
    Φ=ϕ1(x1)ϕ1(xn)ϕb(x1):ϕb(xn)

    为了防止过拟合,我们通常对 θ 加以限制,这里用 2 约束:
    s.t.θ2R

    最小二乘暂时就介绍到这里,至于解法不是我们的重点所以略过。
  2. Hinge损失
    对于二分类问题, y{1,1},θ^xyy^,
    y^=sign(fθˆ(x))

    那么定义 0/1
    12(1sign(fθ(x)y))

    这个式子等价于:
    δ(sign(fθ(x)y)={0(Sign(fθ(x))y)1(sign(fθ(x))=y)

    定义 m=fθ(x)y,Hinge
    max{0,1m}
    ,是训练样本相关的Hinge损失达到最小,就是Hinge损失最小化学习。因为有 y{1,1},y2=11y=y,2使r=fθ(x)y,使m=fθ(x)y
    r2=(yfθ(x))2=y2(1fθ(x)/y)2=(1fθ(x)y)2=(1m)2

    Hingem10/10m11m>0,mHingeHinge135o,
    这里写图片描述
    m
    这里写图片描述
    Hinge
    minθ=i=1nmax{0,1fθ(xi)yi}

    γ
    fθ,γ(x)=j=1nθjK(x,xj)+γ

    进行Hinge最小化学习,加入使用了核矩阵 Ki,j=K(xi,xj)2
    minθ,γ[Ci=1nmax{0,1fθ,γ(xi)yi}+12i,j=1nθiθjK(xi,xj)]

    这里,为了与支持向量机分类器相对应,式中没有使用 λ 作为正则化参数,而是使用了其倒数 C=1λ
    我们引入虚拟变量 ξ :
    max{0,1m}=minξξs.t.ξ1m,ξ0

    那么正则化Hinge损失最小化学习问题转换为:
    minθ,γ[Ci=1nξi+12i,j=1nθiθjK(xi,xj)]

    约束条件为:
    ξi1fθ,γ(xi)yi,ξi0,i=1,,n

    我们再回忆一下标准的SVM式子:
    minω,γ,ξ12ω2+Ci=1nξi,s.tξi1(ωTψ(xi)+γ)yi

    ξi0,i=1,,n

    ω=nj=1θjψ(xj)ψ(xi)Tψ(xj)=K(xi,xj)22Hinge

猜你喜欢

转载自blog.csdn.net/q__y__L/article/details/53283485