一、问题描述
在模型微调最后2层时,BatchNorm1d
如题报错。
def get_model():
model_pre = models.resnet50(pretrained=True) # 获取预训练模型
# 冻结预训练模型中所有参数
for param in model_pre.parameters():
param.requires_grad = False
# 替换ResNet最后的两层网络,返回一个新的模型(迁移学习)
model_pre.avgpool = AdaptiveConcatPool2d() # 池化层替换
model_pre.fc = nn.Sequential(
nn.Flatten(), # 所有维度拉平
# nn.BatchNorm1d(4096), # 正则化处理
nn.BatchNorm1d(36864), # 正则化处理
nn.Dropout(0.5), # 丢掉神经元
# nn.Linear(4096, 512), # 线性层处理
nn.Linear(36864, 512), # 线性层处理
nn.ReLU(), # 激活函数
nn.BatchNorm1d(512), # 正则化处理
nn.Dropout(p=0.5), # 丢掉神经元
nn.Linear(512, 2), # 线性层
nn.LogSoftmax(dim=1) # 损失函数
)
return model_pre
torch.nn.Conv2d(in_channels, out_channels, kernel_size,
stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros')
二、解决方法
一般在卷积层Conv2d
后添加正则化BNBatchNormal
,使得数据在relu激活前不会因为数据过大而导致网络不稳定,而我在代码中BatchNorm2d
的输入通道数与前一层Conv2d
的输出通道数不一致,导致报这个错,两者修改一直即可(这里修改为36864即可)。