pytorch学习笔记(三十五):Momentum

动量法

目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。

1. 梯度下降的问题

让我们考虑一个输入和输出分别为二维向量 x = [ x 1 , x 2 ] \boldsymbol{x} = [x_1, x_2]^\top 和标量的目标函数 f ( x ) = 0.1 x 1 2 + 2 x 2 2 f(\boldsymbol{x})=0.1x_1^2+2x_2^2 。下面实现基于这个目标函数的梯度下降,并演示使用学习率为 0.4 0.4 时自变量的迭代轨迹。

%matplotlib inline
import sys
import time
sys.path.append("..") 
import torch
import numpy as np
import d2lzh_pytorch as d21
import matplotlib.pyplot as plt

eta = 0.4
print(torch.__version__)
def f_2d(x1, x2): #定义函数f(x)
    return 0.1 * x1 ** 2 + 2 * x2 ** 2

def gd_2d(x1, x2, s1, s2):  # 更新梯度
    return (x1 - eta * 0.2 * x1, x2 - eta * 4 * x2, 0, 0)
def train_2d(trainer):   #梯度下降
    x1, x2, s1, s2 = -5, -2, 0, 0 
    results = [(x1, x2)]
    for i in range(20):
        x1, x2, s1, s2 = trainer(x1, x2, s1, s2)
        results.append((x1, x2))
    print('epoch %d, x1 %f, x2 %f' % (i + 1, x1, x2))
    return results
def show_trace_2d(f, results):  # 展示结果
    plt.plot(*zip(*results), '-o', color='#ff7f0e')
    x1, x2 = np.meshgrid(np.arange(-5.5, 1.0, 0.1), np.arange(-3.0, 1.0, 0.1))
    plt.contour(x1, x2, f(x1, x2), colors='#1f77b4')
    plt.xlabel('x1')
    plt.ylabel('x2')

show_trace_2d(f_2d, train_2d(gd_2d))

输出:

epoch 20, x1 -0.943467, x2 -0.000073

在这里插入图片描述

可以看到,同一位置上,目标函数在竖直方向( x 2 x_2 轴方向)比在水平方向( x 1 x_1 轴方向)的斜率的绝对值更大。因此,给定学习率,梯度下降迭代自变量时会使自变量在竖直方向比在水平方向移动幅度更大。那么,我们需要一个较小的学习率从而避免自变量在竖直方向上越过目标函数最优解。然而,这会造成自变量在水平方向上朝最优解移动变慢。

下面我们试着将学习率调得稍大一点,此时自变量在竖直方向不断越过最优解并逐渐发散。

eta = 0.6
show_trace_2d(f_2d, d2l.train_2d(gd_2d))

输出:

epoch 20, x1 -0.387814, x2 -1673.365109

在这里插入图片描述

2. 动量法

动量法的提出是为了解决梯度下降的上述问题。由于小批量随机梯度下降比梯度下降更为广义,设时间步 t t 的自变量为 x t \boldsymbol{x}_t ,学习率为 η t \eta_t
在时间步 0 0 ,动量法创建速度变量 v 0 \boldsymbol{v}_0 ,并将其元素初始化成0。在时间步 t > 0 t>0 ,动量法对每次迭代的步骤做如下修改:

v t γ v t 1 + η t g t , x t x t 1 v t , \begin{aligned} \boldsymbol{v}_t &\leftarrow \gamma \boldsymbol{v}_{t-1} + \eta_t \boldsymbol{g}_t, \\ \boldsymbol{x}_t &\leftarrow \boldsymbol{x}_{t-1} - \boldsymbol{v}_t, \end{aligned}

其中,动量超参数 γ \gamma 满足 0 γ < 1 0 \leq \gamma < 1 。当 γ = 0 \gamma=0 时,动量法等价于小批量随机梯度下降。

在解释动量法的数学原理前,让我们先从实验中观察梯度下降在使用动量法后的迭代轨迹。

def momentum_2d(x1, x2, v1, v2):
    v1 = gamma * v1 + eta * 0.2 * x1
    v2 = gamma * v2 + eta * 4 * x2
    return x1 - v1, x2 - v2, v1, v2

eta, gamma = 0.4, 0.5
show_trace_2d(f_2d, d2l.train_2d(momentum_2d))

输出:

epoch 20, x1 -0.062843, x2 0.001202

在这里插入图片描述

可以看到使用较小的学习率 η = 0.4 \eta=0.4 和动量超参数 γ = 0.5 \gamma=0.5 时,动量法在竖直方向上的移动更加平滑,且在水平方向上更快逼近最优解。下面使用较大的学习率 η = 0.6 \eta=0.6 ,此时自变量也不再发散。

eta = 0.6
d2l.show_trace_2d(f_2d, d2l.train_2d(momentum_2d))

输出:

epoch 20, x1 0.007188, x2 0.002553

在这里插入图片描述

2.1 指数加权移动平均

为了从数学上理解动量法,让我们先解释一下指数加权移动平均(exponentially weighted moving average)。给定超参数 0 γ < 1 0 \leq \gamma < 1 ,当前时间步 t t 的变量 y t y_t 是上一时间步 t 1 t-1 的变量 y t 1 y_{t-1} 和当前时间步另一变量 x t x_t 的线性组合:

y t = γ y t 1 + ( 1 γ ) x t . y_t = \gamma y_{t-1} + (1-\gamma) x_t.

我们可以对 y t y_t 展开:

y t = ( 1 γ ) x t + γ y t 1 = ( 1 γ ) x t + ( 1 γ ) γ x t 1 + γ 2 y t 2 = ( 1 γ ) x t + ( 1 γ ) γ x t 1 + ( 1 γ ) γ 2 x t 2 + γ 3 y t 3 \begin{aligned} y_t &= (1-\gamma) x_t + \gamma y_{t-1}\\ &= (1-\gamma)x_t + (1-\gamma) \cdot \gamma x_{t-1} + \gamma^2y_{t-2}\\ &= (1-\gamma)x_t + (1-\gamma) \cdot \gamma x_{t-1} + (1-\gamma) \cdot \gamma^2x_{t-2} + \gamma^3y_{t-3}\\ &\ldots \end{aligned}

n = 1 / ( 1 γ ) n = 1/(1-\gamma) ,那么 ( 1 1 / n ) n = γ 1 / ( 1 γ ) \left(1-1/n\right)^n = \gamma^{1/(1-\gamma)} 。因为

lim n ( 1 1 n ) n = exp ( 1 ) 0.3679 , \lim_{n \rightarrow \infty} \left(1-\frac{1}{n}\right)^n = \exp(-1) \approx 0.3679,

所以当 γ 1 \gamma \rightarrow 1 时, γ 1 / ( 1 γ ) = exp ( 1 ) \gamma^{1/(1-\gamma)}=\exp(-1) ,如 0.9 5 20 exp ( 1 ) 0.95^{20} \approx \exp(-1) 。如果把 exp ( 1 ) \exp(-1) 当作一个比较小的数,我们可以在近似中忽略所有含 γ 1 / ( 1 γ ) \gamma^{1/(1-\gamma)} 和比 γ 1 / ( 1 γ ) \gamma^{1/(1-\gamma)} 更高阶的系数的项。例如,当 γ = 0.95 \gamma=0.95 时,

y t 0.05 i = 0 19 0.9 5 i x t i . y_t \approx 0.05 \sum_{i=0}^{19} 0.95^i x_{t-i}.

因此,在实际中,我们常常将 y t y_t 看作是对最近 1 / ( 1 γ ) 1/(1-\gamma) 个时间步的 x t x_t 值的加权平均。例如,当 γ = 0.95 \gamma = 0.95 时, y t y_t 可以被看作对最近20个时间步的 x t x_t 值的加权平均;当 γ = 0.9 \gamma = 0.9 时, y t y_t 可以看作是对最近10个时间步的 x t x_t 值的加权平均。而且,离当前时间步 t t 越近的 x t x_t 值获得的权重越大(越接近1)。

2.2 由指数加权移动平均理解动量法

现在,我们对动量法的速度变量做变形:

v t γ v t 1 + ( 1 γ ) ( η t 1 γ g t ) . \boldsymbol{v}_t \leftarrow \gamma \boldsymbol{v}_{t-1} + (1 - \gamma) \left(\frac{\eta_t}{1 - \gamma} \boldsymbol{g}_t\right).

由指数加权移动平均的形式可得,速度变量 v t \boldsymbol{v}_t 实际上对序列 { η t i g t i / ( 1 γ ) : i = 0 , , 1 / ( 1 γ ) 1 } \{\eta_{t-i}\boldsymbol{g}_{t-i} /(1-\gamma):i=0,\ldots,1/(1-\gamma)-1\} 做了指数加权移动平均。换句话说,相比于小批量随机梯度下降,动量法在每个时间步的自变量更新量近似于将最近 1 / ( 1 γ ) 1/(1-\gamma) 个时间步的普通更新量(即学习率乘以梯度)做了指数加权移动平均后再除以 1 γ 1-\gamma 。所以,在动量法中,自变量在各个方向上的移动幅度不仅取决当前梯度,还取决于过去的各个梯度在各个方向上是否一致。在本节之前示例的优化问题中,所有梯度在水平方向上为正(向右),而在竖直方向上时正(向上)时负(向下)。这样,我们就可以使用较大的学习率,从而使自变量向最优解更快移动。

3. 从零开始实现

相对于小批量随机梯度下降,动量法需要对每一个自变量维护一个同它一样形状的速度变量,且超参数里多了动量超参数。实现中,我们将速度变量用更广义的状态变量states表示。

features, labels = d2l.get_data_ch7()

def init_momentum_states(): # 初始化状态
    v_w = torch.zeros((features.shape[1], 1), dtype=torch.float32)
    v_b = torch.zeros(1, dtype=torch.float32)
    return (v_w, v_b)

def sgd_momentum(params, states, hyperparams): # 根据动量法更新参数
    for p, v in zip(params, states):
        v.data = hyperparams['momentum'] * v.data + hyperparams['lr'] * p.grad.data
        p.data -= v.data

定义线性模型和损失函数

def linreg(X, w, b): # 定义线性模型
    return torch.mm(X, w) + b

def squared_loss(y_hat, y):  # 定义损失函数
    # 注意这里返回的是向量, 另外, pytorch里的MSELoss并没有除以 2
    return ((y_hat - y.view(y_hat.size())) ** 2) / 2

下面我们来实现训练模型

def train_ch7(optimizer_fn, states, hyperparams, features, labels,
              batch_size=10, num_epochs=2):
    # 初始化模型
    net, loss = linreg, squared_loss
    
    w = torch.nn.Parameter(torch.tensor(np.random.normal(0, 0.01, size=(features.shape[1], 1)), dtype=torch.float32),
                           requires_grad=True)
    b = torch.nn.Parameter(torch.zeros(1, dtype=torch.float32), requires_grad=True)

    def eval_loss():
        return loss(net(features, w, b), labels).mean().item()

    ls = [eval_loss()]
    data_iter = torch.utils.data.DataLoader(
        torch.utils.data.TensorDataset(features, labels), batch_size, shuffle=True)
    
    for _ in range(num_epochs):
        start = time.time()
        for batch_i, (X, y) in enumerate(data_iter):
            l = loss(net(X, w, b), y).mean()  # 使用平均损失
            
            # 梯度清零
            if w.grad is not None:
                w.grad.data.zero_()
                b.grad.data.zero_()
                
            l.backward()
            optimizer_fn([w, b], states, hyperparams)  # 迭代模型参数
            if (batch_i + 1) * batch_size % 100 == 0:
                ls.append(eval_loss())  # 每100个样本记录下当前训练误差
    # 打印结果和作图
    print('loss: %f, %f sec per epoch' % (ls[-1], time.time() - start))
    plt.plot(np.linspace(0, num_epochs, len(ls)), ls)
    plt.xlabel('epoch')
    plt.ylabel('loss')

我们先将动量超参数momentum设0.5,这时可以看成是特殊的小批量随机梯度下降:其小批量随机梯度为最近2个时间步的2倍小批量梯度的加权平均。

train_ch7(sgd_momentum, init_momentum_states(),
              {'lr': 0.02, 'momentum': 0.5}, features, labels)

输出:

loss: 0.245518, 0.042304 sec per epoch

在这里插入图片描述

将动量超参数momentum增大到0.9,这时依然可以看成是特殊的小批量随机梯度下降:其小批量随机梯度为最近10个时间步的10倍小批量梯度的加权平均。我们先保持学习率0.02不变。

train_ch7(sgd_momentum, init_momentum_states(),
              {'lr': 0.02, 'momentum': 0.9}, features, labels)

输出:

loss: 0.252046, 0.095708 sec per epoch

在这里插入图片描述

可见目标函数值在后期迭代过程中的变化不够平滑。直觉上,10倍小批量梯度比2倍小批量梯度大了5倍,我们可以试着将学习率减小到原来的1/5。此时目标函数值在下降了一段时间后变化更加平滑。

train_ch7(sgd_momentum, init_momentum_states(),
              {'lr': 0.004, 'momentum': 0.9}, features, labels)

输出:

loss: 0.242905, 0.073496 sec per epoch

在这里插入图片描述

4. 简洁实现

在PyTorch中,只需要通过参数momentum来指定动量超参数即可使用动量法。

d2l.train_pytorch_ch7(torch.optim.SGD, {'lr': 0.004, 'momentum': 0.9},
                    features, labels)

输出:

loss: 0.253280, 0.060247 sec per epoch

在这里插入图片描述

小结

  • 动量法使用了指数加权移动平均的思想。它将过去时间步的梯度做了加权平均,且权重按时间步指数衰减。
  • 动量法使得相邻时间步的自变量更新在方向上更加一致。

猜你喜欢

转载自blog.csdn.net/qq_43328040/article/details/107909351
今日推荐