Aviso:
Mismo preámbulo
La parte de cambio de código es como se muestra en la figura a continuación, y el resto es igual que la optimización básica de CIFAR-10 anterior (agregando funciones de estandarización y activación)_Bailianchengdan Blog-CSDN Blog
Idea de optimización:
Luego agregue múltiples capas convolucionales
Agregar abandono entre capas convolucionales y capas completamente conectadas
Optimizar la estructura de pedidos de la red
aumento de imagen
Estructura de red:
class Model(nn.Module):
def __init__(self):
super(Model, self).__init__()
self.model1 = nn.Sequential(
nn.Conv2d(3, 32, 5, padding=2), nn.BatchNorm2d(32),
nn.Dropout2d(0.25), nn.ReLU(),
nn.Conv2d(32, 32, 5, padding=2), nn.BatchNorm2d(32),
nn.MaxPool2d(2)) # nn.ReLU(),
self.model2 = nn.Sequential(
nn.Conv2d(32, 64, 5, padding=2), nn.BatchNorm2d(64),
nn.Dropout2d(0.25), nn.ReLU(),
nn.Conv2d(32, 64, 5, padding=2), nn.BatchNorm2d(64),
nn.MaxPool2d(2)) # nn.ReLU(),
self.model3 = nn.Sequential(
nn.Conv2d(32, 128, 5, padding=2), nn.BatchNorm2d(128),
nn.Dropout2d(0.3), nn.ReLU(),
nn.Conv2d(32, 128, 5, padding=2), nn.BatchNorm2d(128),
nn.MaxPool2d(2)) # nn.ReLU(),
self.model4 = nn.Sequential(
nn.Conv2d(32, 256, 5, padding=2), nn.BatchNorm2d(256),
nn.Dropout2d(0.3), nn.ReLU(),
nn.Conv2d(32, 256, 5, padding=2), nn.BatchNorm2d(256),
nn.MaxPool2d(2)) # nn.ReLU(),
self.model5 = nn.Sequential(
nn.Conv2d(256, 512, 5, padding=2), nn.BatchNorm2d(512),
nn.Dropout2d(0.35), nn.ReLU(),
nn.Conv2d(512, 512, 5, padding=2), nn.BatchNorm2d(512),
nn.MaxPool2d(2)) # nn.ReLU(),
self.linear1 = nn.Sequential(
nn.Flatten(),
nn.Linear(512, 128), nn.BatchNorm1d(128), nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(128, 10))
Aumento de imagen: torchvision.transforms.ColorJitter(0.5), torchvision.transforms.RandomHorizontalFlip()
train_data = torchvision.datasets.CIFAR10("../dataset", train=True, transform=torchvision.transforms.Compose(
[torchvision.transforms.ColorJitter(0.5), torchvision.transforms.RandomHorizontalFlip(),
torchvision.transforms.ToTensor()]))
Efecto:
La precisión máxima del conjunto de prueba es del 88,2%
Sin aumento después de aproximadamente 64epoch
El efecto de rendimiento se mejora aún más.
Pero el tiempo no es el ideal, unos 40 minutos
Siguiente paso, únete a la red residual