深度学习基础3——过拟合欠拟合、梯度消失与梯度爆炸、常见循环神经网络

深度学习基础3


 

一、过拟合欠拟合

1.概念

  • 欠拟合:训练误差(训练集的损失函数的值)较大。
  • 过拟合:训练误差远远小于泛化误差(任意测试样本误差的期望)。
  • 验证集:在训练集和测试集中事先留取一部分数据,以便估计泛化误差、确定模型参数超参数、进行模型选择。
  • K折交叉验证:数据不足以留取验证集时可以采用 K K 折交叉验证方法。
    • 其原理是:将原始训练集分割成 K K 个不重合的子数据集,对其做K次训练和验证。每次过程用 K 1 K-1 个子集训练模型,用剩余一个子集验证模型。最后求 K K 个训练误差和验证误差的均值。
    • 有时一组参数的训练误差可能很低,而在K折交叉验证上的误差较高,这可能是因为存在过拟合。所以,当训练误差降低时,需要观察K折交叉验证上的误差是否相应降低。
  • 影响过拟合和欠拟合的因素有模型复杂度和训练集大小。
    • 训练集样本数过少易出现过拟合的情况。对于模型复杂度,如下图所示,模型较简单时泛化误差和训练误差较高;当模型过于复杂时训练误差降低而泛化误差会升高。因此在选择模型时,模型不能简单也不能过于复杂。
      模型复杂度与误差的关系
       

2.解决过拟合欠拟合的方法

(1)权重缩减

  • 权重缩减解决过拟合的方法是通过在损失函数中添加 L 2 L_2 范数的正则化项(即惩罚项),降低模型参数值。
  • L 2 L_2 范数是权重参数的平方和与一个正数的乘积,如: l o s s ( w , b ) + λ w 2 loss(\pmb{w},b)+\lambda |\pmb{w}|^2
    • λ \lambda 较大时,惩罚项随之增大,为了使整个损失函数尽可能小,通常会使权重参数 w \pmb{w} 压缩到接近于0。
  • 权重缩减通过惩罚绝对值较大的参数为模型增加限制,从而减少过拟合的可能性。
     

(2)丢弃法

  • 丢弃法—对神经网络的输入层或隐藏层:
    • 随机选择一部分该层的输出作为丢弃元素
    • 将丢弃元素×0
    • 拉伸非丢弃元素
  • 丢弃概率是丢弃法的超参数,丢弃法不改变输入的期望值。在隐藏层使用丢弃法时,由于丢弃的隐藏单元是随机的,所以输出层无法完全依赖所有隐藏单元,从而起到正则化的作用,可以解决过拟合问题。
  • 注:测试模型时一般不使用丢弃法
  • 下图为一个例子:隐藏层原有5个隐藏单元,通过随机选择,丢弃 h 2 , h 5 h_2,h_5 ,根据剩下三个隐藏单元输出。
    在这里插入图片描述
     
     

二、梯度消失与梯度爆炸

1.消失与爆炸

  • 当神经网络层数较多时,模型的数值稳定性容易变差,易出现的问题是消失和爆炸。
    • 举个例子:假设一个有 L L 层的多层感知机的隐藏层的激活函数都是恒等映射( ϕ ( x ) = x \phi(x)=x ),即 H ( l ) = X W ( 1 ) W ( l ) H^{(l)}=XW^{(1)}…W^{(l)} ,从而 H ( l ) H^{(l)} 会消失或爆炸。设权重参数为0.1,如第20层的输出为 0. 1 20 X = 1 × 1 0 20 X 0.1^{20}X=1×10^{-20}X (消失);如权重参数为2,则第20层的输出为 2 20 1048576 2^{20}≈1048576 (爆炸)。同时,梯度也会消失会爆炸。
  • 激活函数sigmoid或tanh函数使得参数转换为绝对值小于1的值,会加剧梯度消失的现象。所以在深层网络中需要避免以上两种激活函数
     

2.随机初始化

  • 随机初始化模型参数的原因:若参数初始值相同,则在正向传播输出值也相同,那么在反向传播中梯度相同,从而更新后值相同,而隐藏单元仅仅一个起作用。
    • pytorch提供了初始化方法:torch.nn.init.normal_()正态分布的随机初始化
    • Xavier随机初始化:权重参数随机取样于均匀分布 U ( 6 a + b , 6 a + b ) U(-\sqrt{\frac{6}{a+b}},\sqrt{\frac{6}{a+b}}) a a 为输入个数, b b 为输出个数。
       

3.影响模型效果的其他因素

  • 协变量偏移:特征分布变化,即 P ( x ) P(x) 变化而 P ( y x ) P(y|x) 不变
  • 标签偏移:标签边缘分布变化,即 P ( y ) P(y) 变化而 P ( x y ) P(x|y) 不变。简单理解为测试中出现了训练时不存在的标签。
  • 概念偏移:标签本身定义发生变化。可以根据其缓慢变化的特点缓解。

 
 

三、循环神经网络进阶

1.门控循环神经网络/门控循环单元(GRU)

  • 当时间步数较大或较小时,循环神经网络梯度容易消失或爆炸,尽管裁剪梯度可以应对梯度爆炸,但无法解决梯度衰减的问题。而门控循环神经网络可以更好反映时间序列中时间步数距离较大的依赖关系。
  • 门控循环神经网络在简单循环神经网络基础上加入了门控机制,如下图。门控机制可以控制记忆单元中的信息有多少保留或丢弃,新的状态信息又有多少保存到记忆单元中等。门控循环神经网络在状态 h t h_t h t 1 h_{t-1} 中添加一个线性依赖关系,从而可以学习跨度相对较长的依赖关系,不会出现梯度消失和梯度爆炸的问题。
    GRU
  • 表达式为: R t = σ ( X t + W x r + H t 1 W h r + b r ) Z t = σ ( X t + W x z + H t 1 W h z + b z ) H ~ t = t a n h ( X t W x h + ( R t H t 1 W h h + b h ) H t = Z t H t 1 + ( 1 Z t ) H ~ t \begin{aligned}R_t&=\sigma(X_t+W_{xr}+H_{t-1}W_{hr}+b_r)\\Z _t&=\sigma(X_t+W_{xz}+H_{t-1}W_{hz}+b_z)\\ \tilde{H}_t&=tanh(X_tW_{xh}+(R_{t} \odot H_{t-1}W_{hh}+b_h)\\H _t&=Z_t \odot H_{t-1}+(1-Z_t)\odot \tilde{H}_{t} \end{aligned} 其中 R t R_t 为重置门,表示丢弃先前信息的程度。
    Z t Z_t 为更新门,决定丢弃哪些信息和添加哪些新信息。在这里插入图片描述
  • 参考blog:https://www.jianshu.com/p/0cf7436c33ae.
     

2.LSTM:长短期记忆

  • LSTM也是为了解决长依赖问题。它的核心思想是记忆细胞,见下图的 C t C_t
    • 第一步是决定细胞状态需要丢弃哪些信息—遗忘门 F t F_t
    • 第二步决定添加哪些新信息----首先由输入门 I t I_t 决定更新哪些信息,然后将 h t 1 h_{t-1} x t x_t 通过 t a n h tanh 转换后得到一个新的候选记忆细胞 C ~ t \tilde{C}_t ,这些信息可能会被更新到细胞信息中
    • 第三步更新旧的细胞信息 C t 1 C_{t-1} 为新的细胞信息 C t C_t –通过遗忘门遗忘一些旧的信息,通过输出门添加候选细胞信息的一部分
    • 最后一步得到该单元的输出—根据更新的细胞状态判断输出细胞的哪些状态特征并经过 t a n h tanh 转换,与输出门 O t O_t 相乘得到结果

      在这里插入图片描述 LSTM
  • 表达式: I t = σ ( X t W x i + H t 1 W h i + b i ) F t = σ ( X t W x f + H t 1 W h f + b f ) O t = σ ( X t W x f + H t 1 W h f + b f ) C ~ t = t a n h ( X t W x c + H t 1 W h c + b c ) C t = F t C t 1 + I t C ~ t H t = O t t a n h ( C t ) \begin{aligned}I_t&=\sigma(X_tW_{xi}+H_{t-1}W_{hi}+b_i)\\ F_t&=\sigma(X_tW_{xf}+H_{t-1}W_{hf}+b_f)\\O _t&=\sigma(X_tW_{xf}+H_{t-1}W_{hf}+b_f)\\ \tilde{C}_t&=tanh(X_tW_{xc}+H_{t-1}W_{hc}+b_c)\\ C_t&=F_t \odot C_{t-1}+I_t \odot \tilde{C}_t\\H_t &=O_t \odot tanh(C_t) \end{aligned} 其中 F t F_t 为遗忘门,控制前一步记忆单元中的信息有多大程度被遗忘掉
    I t I_t 为输入门,表示新状态以多大程度更新到记忆单元中
    O t O_t 为输出门,表示当前输出有多大程度取决于当前记忆单元
    C t C_t 为记忆细胞,一种特殊的隐藏状态的信息流动
  • 当输入的序列中没有重要信息时,遗忘门的值接近于1,输入门的值接近于0,此时过去的记忆会被保存,从而实现了长期记忆功能;当输入的序列中出现了重要的信息时,LSTM将其存入记忆中,此时其输入门的值会接近于1;如果该重要信息意味着之前的记忆不再重要时,输入门的值接近1,而遗忘门的值接近于0,这样旧的记忆被遗忘,新的重要信息被记忆。
  • 参考blog:https://www.jianshu.com/p/95d5c461924c.

3.深度循环神经网络(Deep RNN)

  • 深度循环神经网络由多个隐藏层组成,在每个时间上有多个隐藏单元。

    DRNN
  • 表达式: H t ( 1 ) = ϕ ( X t W x h ( 1 ) + H t 1 ( 1 ) W h h ( 1 ) + b h ( 1 ) ) H t ( l ) = ϕ ( H t ( l 1 ) W x h ( l ) + H t 1 ( l ) W h h ( l ) + b h ( l ) ) O t = H t ( L ) W h h ( l ) + b q \begin{aligned}H_t^{(1)} &=\phi(X_tW^{(1)}_{xh}+H_{t-1}^{(1)}W_{hh}^{(1)}+b_h^{(1)})\\ & \qquad \qquad \vdots \\H_t^{(l)} &=\phi(H_t^{(l-1)}W^{(l)}_{xh}+H_{t-1}^{(l)}W_{hh}^{(l)}+b_h^{(l)})\\O_t & =H_t^{(L)}W_{hh}^{(l)}+b_q \end{aligned}

4.双向循环神经网络(BRNN)

  • 一般的RNN在某一时刻只能从过去的序列和当前输入获取信息,不能从后面序列捕获信息。而BRNN可以。如图所示,向前向后层连接着输出层,包含6个共享权值,分别为:输入到向前向后层的两个权值,向前向后到隐藏层的权重和向前向后隐藏层到输出层的权值。所以,每个训练序列向前向后分别是两个循环网络,连接着一个输出层。这个结构提供给输出层输入序列中每一个点的完整的过去和未来的上下文信息。


    BRNN

  • 表达式:

    在这里插入图片描述

  • 训练过程
    在这里插入图片描述

  • 参考blog:https://blog.csdn.net/wangyangzhizhou/article/details/79798087

发布了60 篇原创文章 · 获赞 2 · 访问量 1489

猜你喜欢

转载自blog.csdn.net/qq_40160983/article/details/104336606