L2正则化项为什么能防止过拟合学习笔记

https://www.cnblogs.com/alexanderkun/p/6922428.html

L2 regularization(权重衰减)

L2正则化就是在代价函数后面再加上一个正则化项:

http://i.imgur.com/9WnBBu1.jpg

C0代表原始的代价函数,后面那一项就是L2正则化项,它是这样来的:所有参数w的平方的和,除以训练集的样本大小nλ就是正则项系数,权衡正则项与C0项的比重。另外还有一个系数1/21/2经常会看到,主要是为了后面求导的结果方便,后面那一项求导会产生一个2,与1/2相乘刚好凑整。

L2正则化项是怎么避免overfitting的呢?我们推导一下看看,先求导:

http://i.imgur.com/mebEC90.jpg

可以发现L2正则化项对b的更新没有影响,但是对于w的更新有影响:

http://i.imgur.com/qM83geg.jpg

在不使用L2正则化时,求导结果中w前系数为1,现在w前面系数为 1−ηλ/n ,因为ηλn都是正的,所以 1−ηλ/n小于1,它的效果是减小w,这也就是权重衰减(weight decay)的由来当然考虑到后面的导数项,w最终的值可能增大也可能减小

另外,需要提一下,对于基于mini-batch的随机梯度下降,wb更新的公式跟上面给出的有点不同:

http://i.imgur.com/Xs2p2EN.jpg

http://i.imgur.com/yDETU7x.jpg

对比上面w的更新公式,可以发现后面那一项变了,变成所有导数加和,乘以η再除以mm是一个mini-batch中样本的个数。

到目前为止,我们只是解释了L2正则化项有让w“变小的效果,但是还没解释为什么w“变小可以防止overfitting?一个所谓显而易见的解释就是:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫做奥卡姆剃刀),而在实际应用中,也验证了这一点,L2正则化的效果往往好于未经正则化的效果。当然,对于很多人(包括我)来说,这个解释似乎不那么显而易见,所以这里添加一个稍微数学一点的解释(引自知乎):

过拟合的时候,拟合函数的系数往往非常大,为什么?如下图所示,过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。

http://i.imgur.com/RsR5cOK.png

而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况

猜你喜欢

转载自blog.csdn.net/u012535605/article/details/83579214