模型选择、过拟合和欠拟合

模型选择、过拟合和欠拟合

训练误差和泛化误差

在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。

机器学习模型应关注降低泛化误差。

模型选择

验证数据集

从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。

K折交叉验证

由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validation)。在K折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。

过拟合和欠拟合

接下来,我们将探究模型训练中经常出现的两类典型问题:

  • 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting);
  • 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。
    在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。

模型复杂度

为了解释模型复杂度,我们以多项式函数拟合为例。给定一个由标量数据特征 x x 和对应的标量标签 y y 组成的训练数据集,多项式函数拟合的目标是找一个 K K 阶多项式函数

y ^ = b + k = 1 K x k w k \hat{y} = b + \sum_{k=1}^K x^k w_k

来近似 y y 。在上式中, w k w_k 是模型的权重参数, b b 是偏差参数。与线性回归相同,多项式函数拟合也使用平方损失函数。特别地,一阶多项式函数拟合又叫线性函数拟合。

给定训练数据集,模型复杂度和误差之间的关系:

Image Name

训练数据集大小

影响欠拟合和过拟合的另一个重要因素是训练数据集的大小。一般来说,如果训练数据集中样本数过少,特别是比模型参数数量(按元素计)更少时,过拟合更容易发生。此外,泛化误差不会随训练数据集里样本数量增加而增大。因此,在计算资源允许的范围之内,我们通常希望训练数据集大一些,特别是在模型复杂度较高时,例如层数较多的深度学习模型。

注意:

(1)测试数据集不可以调整模型参数,如果使用测试数据集调整模型参数,可能在测试数据集上发生一定程度的过拟合,此时将不能用测试误差来近似泛化误差。
(2)过拟合是指训练误差达到一个补偿的水平,而泛化误差依然克服。欠拟合是指训练误差和泛化误差都不能达到一个重置的水平。发生欠拟合的时候在训练集上训练误差不能达到一个比较低的水平,所以过拟合和欠拟合不可能同时发生。
(3)过拟合还可以使用权重衰减和替换法来缓解,即使在一个比较小的数据集上使用了权重衰减和替换法之后也能够达到一个比较好的效果。

权重衰减

方法

权重衰减等价于 L 2 L_2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。

L2 范数正则化(regularization)

L 2 L_2 范数正则化在模型原损失函数基础上添加 L 2 L_2 范数惩罚项,从而得到训练所需要最小化的函数。 L 2 L_2 范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。以线性回归中的线性回归损失函数为例

( w 1 , w 2 , b ) = 1 n i = 1 n 1 2 ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b y ( i ) ) 2 \ell(w_1, w_2, b) = \frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right)^2

其中 w 1 , w 2 w_1, w_2 是权重参数, b b 是偏差参数,样本 i i 的输入为 x 1 ( i ) , x 2 ( i ) x_1^{(i)}, x_2^{(i)} ,标签为 y ( i ) y^{(i)} ,样本数为 n n 。将权重参数用向量 w = [ w 1 , w 2 ] \boldsymbol{w} = [w_1, w_2] 表示,带有 L 2 L_2 范数惩罚项的新损失函数为

( w 1 , w 2 , b ) + λ 2 n w 2 , \ell(w_1, w_2, b) + \frac{\lambda}{2n} |\boldsymbol{w}|^2,

其中超参数 λ > 0 \lambda > 0 。当权重参数均为0时,惩罚项最小。当 λ \lambda 较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当 λ \lambda 设为0时,惩罚项完全不起作用。上式中 L 2 L_2 范数平方 w 2 |\boldsymbol{w}|^2 展开后得到 w 1 2 + w 2 2 w_1^2 + w_2^2
有了 L 2 L_2 范数惩罚项后,在小批量随机梯度下降中,我们将线性回归一节中权重 w 1 w_1 w 2 w_2 的迭代方式更改为

w 1 ( 1 η λ B ) w 1 η B i B x 1 ( i ) ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b y ( i ) ) , w 2 ( 1 η λ B ) w 2 η B i B x 2 ( i ) ( x 1 ( i ) w 1 + x 2 ( i ) w 2 + b y ( i ) ) . \begin{aligned} w_1 &\leftarrow \left(1- \frac{\eta\lambda}{|\mathcal{B}|} \right)w_1 - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}}x_1^{(i)} \left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right),\\ w_2 &\leftarrow \left(1- \frac{\eta\lambda}{|\mathcal{B}|} \right)w_2 - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}}x_2^{(i)} \left(x_1^{(i)} w_1 + x_2^{(i)} w_2 + b - y^{(i)}\right). \end{aligned}

可见, L 2 L_2 范数正则化令权重 w 1 w_1 w 2 w_2 先自乘小于1的数,再减去不含惩罚项的梯度。因此, L 2 L_2 范数正则化又叫权重衰减。权重衰减通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制,这可能对过拟合有效。

丢弃法

多层感知机中神经网络图描述了一个单隐藏层的多层感知机。其中输入个数为4,隐藏单元个数为5,且隐藏单元 h i h_i i = 1 , , 5 i=1, \ldots, 5 )的计算表达式为

h i = ϕ ( x 1 w 1 i + x 2 w 2 i + x 3 w 3 i + x 4 w 4 i + b i ) h_i = \phi\left(x_1 w_{1i} + x_2 w_{2i} + x_3 w_{3i} + x_4 w_{4i} + b_i\right)

这里 ϕ \phi 是激活函数, x 1 , , x 4 x_1, \ldots, x_4 是输入,隐藏单元 i i 的权重参数为 w 1 i , , w 4 i w_{1i}, \ldots, w_{4i} ,偏差参数为 b i b_i 。当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为 p p ,那么有 p p 的概率 h i h_i 会被清零,有 1 p 1-p 的概率 h i h_i 会除以 1 p 1-p 做拉伸。丢弃概率是丢弃法的超参数。具体来说,设随机变量 ξ i \xi_i 为0和1的概率分别为 p p 1 p 1-p 。使用丢弃法时我们计算新的隐藏单元 h i h_i'

h i = ξ i 1 p h i h_i' = \frac{\xi_i}{1-p} h_i

由于 E ( ξ i ) = 1 p E(\xi_i) = 1-p ,因此

E ( h i ) = E ( ξ i ) 1 p h i = h i E(h_i') = \frac{E(\xi_i)}{1-p}h_i = h_i

即丢弃法不改变其输入的期望值。让我们对之前多层感知机的神经网络中的隐藏层使用丢弃法,一种可能的结果如图所示,其中 h 2 h_2 h 5 h_5 被清零。这时输出值的计算不再依赖 h 2 h_2 h 5 h_5 ,在反向传播时,与这两个隐藏单元相关的权重的梯度均为0。由于在训练中隐藏层神经元的丢弃是随机的,即 h 1 , , h 5 h_1, \ldots, h_5 都有可能被清零,输出层的计算无法过度依赖 h 1 , , h 5 h_1, \ldots, h_5 中的任一个,从而在训练模型时起到正则化的作用,并可以用来应对过拟合。在测试模型时,我们为了拿到更加确定性的结果,一般不使用丢弃法

Image Name

总结

  • 欠拟合现象:模型无法达到一个较低的误差

  • 过拟合现象:训练误差较低但是泛化误差依然较高,二者相差较大

发布了123 篇原创文章 · 获赞 71 · 访问量 11万+

猜你喜欢

转载自blog.csdn.net/boke14122621/article/details/104330241