L1正则化产生稀疏模型,L2正则防止过拟合

转自https://blog.csdn.net/jinping_shi/article/details/52433975

L1正则产生稀疏模型的理解:

(1) J = J 0 + a l p h a w | w |

其中 J 0 是原始的损失函数,后半部分为 L 1 正则化项,为绝对值之和, J 带有绝对值符号的函数,因此 J 是不完全可微的。机器学习的任务就是要通过一些方法(比如梯度下降)求出损失函数的最小值。当我们在原始损失函数 J 0 后添加L1正则化项时,相当于对 J 0 做了一个约束。令 L = α w | w | ,则 J = J 0 + L ,此时我们的 任务变成在 L 约束下求出 J 0 取最小值的解。考虑二维的情况,即只有两个权值 w 1 w 2 ,此时 L = | w 1 | + | w 2 | 对于梯度下降法,求解 J 0 的过程可以画出等值线,同时 L 1 正则化的函数 L 也可以在 w 1 w 2 的二维平面上画出来。如下图:

图中等值线是 J 0 的等值线,黑色方形是 L 函数的图形。在图中,当 J 0 等值线与 L 图形首次相交的地方就是最优解。上图中 J 0 L L 的一个顶点处相交,这个顶点就是最优解。注意到这个顶点的值是 ( w 1 , w 2 ) = ( 0 , w ) 。可以直观想象,因为 L 函数有很多『突出的角』(二维情况下四个,多维情况下更多), J 0 与这些角接触的机率会远大于与 L 其它部位接触的机率,而在这些角上,会有很多权值等于0,这就是为什么 L 1 正则化可以产生稀疏模型,进而可以用于特征选择。
而正则化前面的系数 α ,可以控制 L 图形的大小。 α 越小, L 的图形越大(上图中的黑色方框); α 越大, L 的图形就越小,可以小到黑色方框只超出原点范围一点点,这时最优点的值 ( w 1 , w 2 ) = ( 0 , w ) 中的 w 可以取到很小的值。
稀疏矩阵指的是很多元素为0,只有少数元素是非零值的矩阵,即得到的线性回归模型的大部分系数都是0. 通常机器学习中特征数量很多,例如文本处理时,如果将一个词组(term)作为一个特征,那么特征数量会达到上万个(bigram)。在预测或分类时,那么多特征显然难以选择,但是如果代入这些特征得到的模型是一个稀疏模型,表示只有少数特征对这个模型有贡献,绝大部分特征是没有贡献的,或者贡献微小(因为它们前面的系数是0或者是很小的值,即使去掉对模型也没有什么影响),此时我们就可以只关注系数是非零值的特征。这就是稀疏模型与特征选择的关系

类似,假设有如下带L2正则化的损失函数:

(2) J = J 0 + α w w 2

同样可以画出他们在二维平面上的图形,如下:

二维平面下 L 2 正则化的函数图形是个圆,与方形相比,被磨去了棱角。因此 J 0 L 相交时使得 w 1 w 2 等于零的机率小了许多,这就是为什么 L 2 正则化不具有稀疏性的原因。

L2正则化和过拟合

拟合过程中通常都倾向于让权值尽可能小,最后构造一个所有参数都比较小的模型。因为一般认为参数值小的模型比较简单,能适应不同的数据集,也在一定程度上避免了过拟合现象。可以设想一下对于一个线性回归方程,若参数很大,那么只要数据偏移一点点,就会对结果造成很大的影响;但如果参数足够小,数据偏移得多一点也不会对结果造成什么影响,专业一点的说法是『抗扰动能力强』。

注: L 1 正则化的计算公式不可导, L 2 可导

猜你喜欢

转载自blog.csdn.net/chineseqsc/article/details/79690285
今日推荐