《nlp入门+实战:第六章:常见优化器算法的介绍》


上一篇: 《nlp入门+实战:第五章:使用pytorch中的API实现线性回归》

1. 常见优化算法介绍

3.1 梯度下降算法(batch gradient descent BGD)

每次迭代都需要把所有样本都送入,这样的好处是每次迭代都顾及了全部的样本,做的是全局最优化。

3.2 随机梯度下降法(Stochastic gradient descent SGD)

针对梯度下降算法训练速度过慢的缺点,提出了随机梯度下降算法,随机梯度下降算法算法是从样本中随机抽出一组,训练后按梯度更新一次,然后再抽取一组,再更新一次,在样本量及其大的情况下,可能不用训练完所有的样本就可以获得一个损失值在可接受范围之内的模型了。

torch中的api为: torch.optim.sGD()

3.3 小批量梯度下降(Mini-batch gradient descent MBGD)

SGD相对来说要快很多,但是也有存在问题,由于单个样本的训练可能会带来很多噪声,使得SGD并不是每次迭代都向着整体最优化方向,因此在刚开始训练时可能收敛得很快,但是训练一段时间后就会变得很慢。

在此基础上又提出了小批量梯度下降法,它是每次从样本中随机抽取一小批进行训练,而不是一组,这样即保证了效果又保证的速度。

3.4 动量法(Momentum)

mini-batch SGD算法虽然这种算法能够带来很好的训练速度,但是在到达最优点的时候并不能够总是真正到达最优点,而是在最优点附近徘徊

另一个缺点就是mini-batch SGD需要我们挑选一个合适的学习率,当我们采用小的学习率的时候,会导致网络在训练的时候收敛太慢;

当我们采用大的学习率的时候,会导致在训练过程中优化的幅度跳过函数的范围,也就是可能跳过最优点。我们所希望的仅仅是网络在优化的时候网络的损失函数有一个很好的收敛速度同时又不至于摆动幅度太大。

所以Momentum优化器刚好可以解决我们所面临的问题,它主要是基于梯度的移动指数加权平均,对网络的参数进行平滑处理的,让梯度的罢动幅度变得更小。
在这里插入图片描述

在这里插入图片描述

通过这种方式实现梯度的平滑处理。

3.5 AdaGrad

AdaGrad算法就是将每一个参数的每一次迭代的梯度取平方累加后在开方,用全局学习率除以这个数,作为学习率的动态更新,从而达到自适应学习率的效果
在这里插入图片描述

3.6 RMSProp

Momentum优化算法中,虽然初步解决了优化中摆动幅度大的问题,为了进一步优化损失函数在更新中存在摆动幅度过大的问题,并且进一步加快函数的收敛速度,RMSProp算法对参数的梯度使用了平方加权平均数,让步长越来越小。
在这里插入图片描述

3.7 Adam

Adam (Adaptive Moment Estimation)算法是将Momentum算法和RMSProp算法结合起来使用的一种算法,能够达到防止梯度的摆幅多大。同时还能够加开收敛速度。

动量法+RMSProp,学习率可以自适应,梯度振幅不会过大

  • 1.需要初始化梯度的累积量和平方累计量

V w = 0 , S w = 0 V_w=0,S_w=0 Vw=0,Sw=0

  • 2.在t轮训练中,我们首先可以计算得到Momentum和RMSprop的参数更新:
    V w = 0.8 v + 0.2 Δ w , M o m e n t u m 计算的梯度 S w = 0.8 ∗ s + 0.2 ∗ ( Δ W ) 2 , R M S p r o p 计算的梯度 V_w=0.8v+0.2\Delta w,Momentum计算的梯度\\ S_w=0.8*s+0.2*(\Delta W)^2,RMSprop计算的梯度 Vw=0.8v+0.2Δw,Momentum计算的梯度Sw=0.8s+0.2(ΔW)2,RMSprop计算的梯度
  • 3.对其中的值进行处理后得到:
    w = w − α V w S w + δ w=w-\alpha \frac{V_w}{\sqrt{S_w}+\delta} w=wαSw +δVw

torch中的api为:torch.optim.Adam()

3.8 效果演示

在这里插入图片描述

下一篇:《nlp入门+实战:第七章:pytorch中数据集加载和自带数据集的使用》

猜你喜欢

转载自blog.csdn.net/zhiyikeji/article/details/126046403
今日推荐