Cifar-10 optimización básica 2 pytorch, tasa de precisión del conjunto de prueba 88.2

Aviso:

Mismo preámbulo

La parte de cambio de código es como se muestra en la figura a continuación, y el resto es igual que la optimización básica de CIFAR-10 anterior (agregando funciones de estandarización y activación)_Bailianchengdan Blog-CSDN Blog

Idea de optimización:

Luego agregue múltiples capas convolucionales

Agregar abandono entre capas convolucionales y capas completamente conectadas

Optimizar la estructura de pedidos de la red

aumento de imagen

Estructura de red:

class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.model1 = nn.Sequential(
            nn.Conv2d(3, 32, 5, padding=2), nn.BatchNorm2d(32),
            nn.Dropout2d(0.25), nn.ReLU(),
            nn.Conv2d(32, 32, 5, padding=2), nn.BatchNorm2d(32),
            nn.MaxPool2d(2))  # nn.ReLU(),

        self.model2 = nn.Sequential(
            nn.Conv2d(32, 64, 5, padding=2), nn.BatchNorm2d(64),
            nn.Dropout2d(0.25), nn.ReLU(),
            nn.Conv2d(32, 64, 5, padding=2), nn.BatchNorm2d(64),
            nn.MaxPool2d(2))  # nn.ReLU(),

        self.model3 = nn.Sequential(
            nn.Conv2d(32, 128, 5, padding=2), nn.BatchNorm2d(128),
            nn.Dropout2d(0.3), nn.ReLU(),
            nn.Conv2d(32, 128, 5, padding=2), nn.BatchNorm2d(128),
            nn.MaxPool2d(2))  # nn.ReLU(),

        self.model4 = nn.Sequential(
            nn.Conv2d(32, 256, 5, padding=2), nn.BatchNorm2d(256),
            nn.Dropout2d(0.3), nn.ReLU(),
            nn.Conv2d(32, 256, 5, padding=2), nn.BatchNorm2d(256),
            nn.MaxPool2d(2))  # nn.ReLU(),

        self.model5 = nn.Sequential(
            nn.Conv2d(256, 512, 5, padding=2), nn.BatchNorm2d(512),
            nn.Dropout2d(0.35), nn.ReLU(),
            nn.Conv2d(512, 512, 5, padding=2), nn.BatchNorm2d(512),
            nn.MaxPool2d(2))  # nn.ReLU(),
        
        self.linear1 = nn.Sequential(
            nn.Flatten(),
            nn.Linear(512, 128), nn.BatchNorm1d(128), nn.ReLU(),
            nn.Dropout(0.5),
            nn.Linear(128, 10))

Aumento de imagen: torchvision.transforms.ColorJitter(0.5), torchvision.transforms.RandomHorizontalFlip()

train_data = torchvision.datasets.CIFAR10("../dataset", train=True, transform=torchvision.transforms.Compose(
    [torchvision.transforms.ColorJitter(0.5), torchvision.transforms.RandomHorizontalFlip(),
     torchvision.transforms.ToTensor()]))

Efecto:

 La precisión máxima del conjunto de prueba es del 88,2%

 Sin aumento después de aproximadamente 64epoch

El efecto de rendimiento se mejora aún más.

Pero el tiempo no es el ideal, unos 40 minutos

Siguiente paso, únete a la red residual

Supongo que te gusta

Origin blog.csdn.net/weixin_42037511/article/details/124129794
Recomendado
Clasificación