【动手学深度学习Pycharm实现7】Dropout丢弃法及其不同丢失概率的结果对比

前言

李沐大神源代码是用Jupyter写的,笔者想用Pycharm实现并仅作为学习笔记,如有侵权,请联系笔者删除。


一、Dropout丢弃法

Dropout,通过在层之间加入噪音,达到正则化的目的,一般作用在隐藏全连接层的输出上,通过将输出项随机置0来控制模型复杂度,如下图。需要注意的是,并不是把节点删掉,因为下一次迭代很有可能置0的项又会被重启。
图片来自沐神上课时的ppt
如何实现Dropout如下,下面的x为一层到下一层之间的输出,因为要在层之间加入噪音,但又不希望改变数据的期望,所以不被置0的项需要除以(1-p),这里的丢弃概率p是一个超参数,推导在下图沐神手写的公式中。

图片来自沐神上课时的ppt

二、Dropout的实现

python版本:3.8.6
torch版本:1.11.0
d2l版本:0.17.5

import torch
from torch import nn
from d2l import torch as d2l

def dropout_layer(X, dropout):
    assert 0 <= dropout <= 1
    # 在本情况中,所有元素都被丢弃
    if dropout == 1:
        return torch.zeros_like(X)
    # 在本情况中,所有元素都被保留
    if dropout == 0:
        return X
    mask = (torch.rand(X.shape) > dropout).float()   # 意思就是
    return mask * X / (1.0 - dropout)

num_inputs, num_outputs, num_hiddens1, num_hiddens2 = 784, 10, 256, 256
# 网络各层分布为:784*256*256*10,两个隐藏层大小都是256

dropout1, dropout2 = 0.2, 0.5 

# 创建网络
class Net(nn.Module):
    def __init__(self, num_inputs, num_outputs, num_hiddens1, num_hiddens2,
                 is_training = True):
        super(Net, self).__init__()
        self.num_inputs = num_inputs
        self.training = is_training
        self.lin1 = nn.Linear(num_inputs, num_hiddens1)
        self.lin2 = nn.Linear(num_hiddens1, num_hiddens2)
        self.lin3 = nn.Linear(num_hiddens2, num_outputs)
        self.relu = nn.ReLU()

    def forward(self, X):
        H1 = self.relu(self.lin1(X.reshape((-1, self.num_inputs))))
        # 只有在训练模型时才使用dropout
        if self.training == True:
            # 在第一个全连接层之后添加一个dropout层
            H1 = dropout_layer(H1, dropout1)  # dropout1=0.2
        H2 = self.relu(self.lin2(H1))
        if self.training == True:
            # 在第二个全连接层之后添加一个dropout层
            H2 = dropout_layer(H2, dropout2)  # dropout2=0.5
        out = self.lin3(H2)
        return out

net = Net(num_inputs, num_outputs, num_hiddens1, num_hiddens2)

num_epochs, lr, batch_size = 10, 0.5, 256
loss = nn.CrossEntropyLoss(reduction='none')  # 交叉熵损失函数
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size) # 训练数据和测试数据都是256的大小
trainer = torch.optim.SGD(net.parameters(), lr=lr)  # 随机梯度下降
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)
d2l.plt.show()

上面网络结构中两个隐藏层后面都有Dropout层,Dropout1的丢失概率为0.2,Dropout2的丢失概率0.5

二、Dropout不同丢失概率的结果对比

2.1 原始输入,Dropout1=0.2,Dropout2=0.5:

在这里插入图片描述

2.2 Dropout1=0,Dropout2=0,就是相当于没有添加Dropout:

在这里插入图片描述
与上一结果对比可以看到,不用Dropout时,训练损失虽然低一些,但测试准确率也低一些,说明Dropout有起到防止过拟合的作用。

2.3 Dropout1=0.9,Dropout2=0.9

在这里插入图片描述
结果竟然报错,那让我们来看看玄机,跳转到 torch.py 中一看究竟:
在这里插入图片描述
可以发现,torch设置了异常处理,当训练损失小于0.5时才会继续往下,否则中止程序,并且抛出当前训练损失,现在看一下之前的训练损失:在这里插入图片描述
竟然有1.98!!!,触发了异常开关,当然是报错了。那原因我也在沐神的QA环节中大概找到了,就是:比较大的丢弃概率适用于那些特别复杂的(相比于数据)模型,这里可能说模型对于数据不是那么的复杂,所以丢弃概率高了之后,模型很难收敛,也就训练不下去了。


猜你喜欢

转载自blog.csdn.net/weixin_45887062/article/details/124578930