统计学习方法笔记(六)感知机学习算法

感知机学习算法

感知机学习算法原始形式

求参数w,b,使其为损失函数极小化问题的解:
min w , b L ( w , b ) = x i M y i ( w x i + b )
学习算法是误分类驱动的,具体采用随机梯度下降法,首先任意选取一个超平面 w 0 , b 0 ,然后用梯度下降法不断求极小化目标函数,极小化过程是一个随机选择一个误分类点使其梯度下降。
假设误分类点固定,损失函数的梯度由下式给出:
w L ( w , b ) = x i M y i x i
b L ( w , b ) = x i M y i
随机选取一个误分类点 ( x i , y i ) ,进行更新:
w w + η y i x i
b b + η y i
其中, η 是步长,又称为学习率

算法的收敛率

定理:1) 存在满足条件 w ^ o p t = 1 的超平面 w ^ o p t x ^ = w o p t x + b o p t = 0 ,将训练数据完全正确的分开,且存在 γ > 0 ,有:
y i ( w ^ o p t x ^ i ) = y i ( w o p t x i + b o p t ) γ
2) 令 R = max 1 i N x ^ i ,则感知机算法在训练数据集上的误分类次数满足:
k ( R γ ) 2

感知机算法的对偶形式

感知机模型 f ( x ) = s i g n ( j = 1 N α j y j x j x + b )
假设初始值为0,则最后学习到的w,b可以表示为;
w = i = 1 N α i y i x i
b = i = 1 N α i y i
系数更新为:
α i α i + η
b b + η y i

猜你喜欢

转载自blog.csdn.net/yeyustudy/article/details/79343515