版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Hemk340200600/article/details/87540695
1. 感知机模型
感知机模型是一个二分类的模型,它通过形如
y=wx+b的式子将实例x转换为类别,取+1和-1表示,从而将实例进行划分。它是简单并且容易实现的一个模型。
感知机模型主要用来将平面上线性可分的数据集进行划分,对于线性不可分的数据集,感知机无法收敛。
感知机模型的输入输出由以下函数进行映射,其中w是n维空间的一个向量,b是偏置,sign是符号函数。
f(x)=sign(wx+b)..........(1)sign(x)={+1−1x≥0x<0..........(2)
对于感知机的学习策略,我们可以考虑当一个实例点被误分类,则调整w,b的值 ,使分离超平面向该误分类点的一侧移动,减少该误分类点与超平面的距离,直至超平面越过该误分类点使其正确分类。于是有感知机的损失函数
L(w,b)=−xi∈M∑yi(w⋅xi+b)..........(3)
其中M为误分类点的集合。可以发现
−yi(w⋅xi+b)恒为正数,当所有点都完全分类正确时,损失函数为0。对于一个误分类的样本点来说,式子(3)是w,b的连续可导函数。所以采用随机梯度下降法进行学习。感知机学习算法的原始形式如下:
- 定义初始的
w0,b0。
- 扫描训练集,若
yi(w⋅xi+b)≤0,则更新
w=w+ηyixi,b=b+ηyi
- 重复2,直至不存在误分类点。
c不同的初始值,或者误分类点的选取顺序不同,都可能使得最后得到的w和b不同。
2. 收敛性证明(Novikoff定理)
我们如何保证在算法原始模型中,经过有限次的迭代后一定会收敛呢?下面我们进行收敛性的证明。首先令
w^x^=w⋅x+b。假设最终得到的超平面
w^opt⋅x^=wopt⋅x+bopt=0,使
∣∣w^opt∣∣=1,因此对于所有的样本i,有
yi(w^opt⋅x^i)>0
存在
γ=imin{yi(wopt⋅xi+bopt)}
使得
yi(w^opt⋅x^i)≥γ..........(4)
选择初值
w^0,令
w^k−1是第k个误分类实例之前的权重向量,则第k个误分类实例的条件是
yi(w^k−1⋅x^i)=yi(wk−1⋅xi+bk−1)≤0.........(5)
假如样本
(xi,yi)被误分类,则更新权重和偏置
wk=wk−1+ηyixibk=bk−1+ηyi
即
w^k=w^k−1+ηyix^i..........(6)
由式子4和6得
w^kw^opt=w^k−1⋅w^opt+ηyiw^opt⋅x^i≥w^k−1⋅w^opt+ηγ..........(7)
因此可得
w^k和
w^k−1之间的递推式,从而有
w^kw^opt≥w^k−1⋅w^opt+ηγ≥w^k−2⋅w^opt+2ηγ≥...≥kηγ..........(8)
令
R=1≤i≤Nmax∣∣xi∣∣,又由式子5和6推得
∣∣w^k∣∣2=∣∣w^k−1∣∣2+2ηyiw^k−1⋅x^i+η2∣∣x^i∣∣2≤∣∣w^k−1∣∣2+η2∣∣x^i∣∣2≤∣∣w^k−1∣∣2+η2R2≤∣∣w^k−2∣∣2+2η2R2≤...≤kη2R2..........(9)
结合8和9,得到
kηγ≤w^k⋅w^opt≤∣∣w^k∣∣∣∣w^opt∣∣≤k
ηR
于是
k≤(γR)2..........(10)
根据10,我们知道误分类次数k是有上界的,也就是说经过有限次分类我们一定能找到将训练数据完全分开的超平面。
3.感知机对偶形式
假设w和b初始值均为0,对于误分类点通过
w=w+ηyixi和
b=b+ηyi逐步修改,设修改N次,则最后学习到的w和b分别是
w=i=1∑Naiyixib=i=1∑Naiyi
其中
ai=niη,
ni表示第i个实例点由于被误分而更新的次数。则我们的感知机模型可以表示为
f(x)=sign(j=1∑Najyjxj⋅x+b)
感知机算法的对偶形式总结如下:
- 初始化
a
=0,b=0
- 遍历训练集,如果当前样本
yi(j=1∑Najyjxj⋅x+b)≤0,则更新
ai=ai+η,b=b+ηyi
- 重复2直至没有误分类数据。
由于训练过程中需要不停地计算內积,因此可以先将训练实例的內积计算出来并以矩阵的形式存储,这个矩阵被称为Gram矩阵。