利用torchvision.models调用现成的网络

现成的网络结构主要包括以下几种:

  • AlexNet
  • VGG
  • ResNet
  • SqueezeNet
  • DenseNet
  • Inception v3
  • GoogLeNet
  • ShuffleNet v2
  • MobileNet v2
  • ResNeXt
  • Wide ResNet
  • MNASNet

以resnet50为例,其最简单的调用方式就是:↓

model=torchvision.models.resnet50()

不需要初始化什么参数,这样得到的model就是默认的resnet50结构,可以直接用来做分类训练。

但是还提供了预训练参数权重,只需要:↓

model=torchvision.models.resnet50(pretrained=True)

这种方式会直接从官网上进行预训练权重的下载,该预训练权重是由ImageNet-1K(标准输入224x224)而来,由于其本质是一个分类网络,所以最后的全连接层大小为1000.

但是这种方式会被警告,因为pretrained参数可能以后会被舍弃,建议我们使用weight参数。
这样的话我们有两种方法

第一可以直接通过官网先把预训练权重下载好:↓

model=models.resnet50()
weight=torch.load("resnet50.pth")
model.load_state_dict(weight)

第二利用网络的weights参数:↓

from torchvision.models import resnet50,ResNet50_Weights

model=resnet50(weights=ResNet50_Weights.DEFAULT)

导入的ResNet50_Weights其实也不是现成的参数,它里面实际就是预训练权重的地址,它也是现下载的。不管是哪种现成网路的权重,一般在里面都配套了两套权重,一套是论文里面原汁原味的权重,一套是经过一些小技巧,在不改变网络结构的前提下进行改进的一套权重,而DEFAULT(默认值)就选择的是高性能的那一套:

model_1=resnet50(weights=ResNet50_Weights.IMAGENET1K_V1)

model_2=resnet50(weights=ResNet50_Weights.IMAGENET1K_V2)

其中ResNet50_Weights.DEFAULT就是ResNet50_Weights.IMAGENET1K_V2

如果我们想要直接使用现成的网络,不管是分类网络也好,目标检测网络,语义分割网络,还需要注意的就是预处理的步骤,即需要将检测的图片转化成网络训练是输入的格式,这个步骤也在ResNet50_Weights中:↓

weights=ResNet50_Weights.DEFAULT

preprocess=weight.transforms()

batch=preprocess(img).unsequeeze(0)

最后将结果映射回来即可:↓

prediction = model(batch).squeeze(0).softmax(0)
class_id = prediction.argmax().item()
score = prediction[class_id].item()
category_name = weights.meta["categories"][class_id]

其他网络的具体操作可以查看利用torch.models实现分类,目标检测,语义分割任务
但是的但是,我们基本不会使用原始的网络来进行分类,一般使用该网络进行特征的提取,换句话说它的分类层对于我们的用处不大。那么下面分为两种情况来介绍如何改造现成的网络:

将resnet50改造为其他分类网络

如果我们只想要训练分类层,那么先直接冻结网络里面所有的权重:↓

resnet50=models.resnet50(pretrained=True)

for param in resnet50.parameters():
	param.requires_grad=False

当我们直接print出resnet50的网络结构以后,最后几行是这样的↓

  (avgpool): AdaptiveAvgPool2d(output_size=(1, 1))
  (fc): Linear(in_features=2048, out_features=1000, bias=True)

这里面的fc就是我们需要更改的全连接层,其中fc其实就是全连接层名称,也可以认为是一个初始化变量,所以我们只需要改变这个初始化变量就可以了:↓

num_features=resnet50.fc.in_features

resnet50.fc=nn.Linear(num_features,10)#假设我们只需要分类10类

也可以再添加一层softmax,写成:↓

resnet50.fc=nn.Sequential(nn.Linear(num_features,10),
						  nn.LogSoftmax(dim=1))

使用resnet50部分结构组成下游网络的backbone(重点)

model=resnet50(weights=ResNet50_Weights.IMAGENET1K_V2)

feature_maps=nn.Sequential(*list(model.children())[:7])

imgs=torch.randn([2,3,224,224])

output=feature_maps(imgs)

就这么简单。

首先model.children()是一个很好用的接口,其只会将model的最外层结构分别输出,resnet50最外层一共有10个模块,我这里只去了前面7个,取出来以后利用nn.Sequential进行连接,就可以只使用其中某部分的结构了,具体可以参考
迁移学习

猜你喜欢

转载自blog.csdn.net/weixin_44586881/article/details/130084170
今日推荐