VGG16模型详解

VGG16模型详解

0、VGG16介绍

VGG16是一种深度卷积神经网络,由牛津大学的研究团队于2014年开发。

VGG16在2014年的ImageNet Large Scale Visual Recognition Challenge (ILSVRC) 竞赛中取得了显著的成绩。它在图像分类任务中获得了当年的第二名,其准确率超过了之前的深度神经网络模型,并为后来的研究提供了重要的启示。

1、网络模型结构

这张图来源于论文《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE            IMAGE RECOGNITION》,其中的D、E就表示的是VGG16和VGG19。

parameters:

  • input(224x224 RGB image):输入尺寸为224x224的RGB彩色图片。
  • conv3-64:前一个数字表示卷积核的大小,后一个数字表示卷积核的数量。其它的也如此。
  • maxpool:最大池化,有助于提取主要特征、降低维度、增加不变性。
  • FC-4096-1:全连接(Fully Connected)层,具体指的是包含4096个神经元的全连接层。将来自卷积和池化层的特征映射进行扁平化,然后与权重矩阵相乘并加上偏置,产生一组4096维的输出。
  • FC-4096-2:这是VGG16网络的第二个全连接层,同样具有4096个神经元。它接收来自第一个全连接层的4096维输出作为输入,然后进行相同的矩阵相乘和偏置操作,得到最终的特征表示。
  • FC-1000:最后一个全连接层是FC-1000,它有1000个神经元,对应于ImageNet数据集中的1000个类别(即网络被训练用于ImageNet图像分类任务)。这一层的输出经过softmax激活函数后,表示图像属于每个类别的概率分布,从而实现了分类功能。

2、VGG16的卷积核特点

VGG网络的卷积层全部采用的是3x3卷积核,这个设计是VGG16网络的一个显著特点。一个3x3卷积核包含了一个像素的上下左右的最小单元。连续多层的3x3卷积核可以拟合更复杂的特征,同时增加网络深度。

两个3x3卷积可以替代一个5x5卷积,三个3x3卷积可以替代一个7x7卷积。这样多个小卷积核的卷积层替代一个卷积核较大的卷积层,一方面参数数量减少了,另一方面非线性次数也变多了,学习能力变得更好,网络的表达能力也提升了。

3、网络卷积过程

图片来源于同济子豪兄的视频。

  • 输入尺寸为224x224x3的RGB图像,经过block1,步长为1,padding=1的填充。经过两个卷积层后,再经过ReLU函数激活,尺寸不变,通道数为64。尺寸变为224x224x64。
  • 每经过maxpool,滤波器大小为2x2,步长为2,尺寸减半。尺寸变为112x112x64。
  • 经过block2,两次卷积,ReLU激活。尺寸变为112x112x128。
  • maxpool池化,尺寸变为56x56x128。
  • 经过block3,三次卷积,ReLU激活。尺寸变为56x56x256。
  • maxpool池化,尺寸变为28x28x256。
  • 经过block4,三次卷积,ReLU激活。尺寸变为28x28x512。
  • maxpool池化,尺寸变为14x14x512。
  • 经过block5,三次卷积,ReLU激活。尺寸变为14x14x512。
  • maxpool池化,尺寸变为7x7x512。
  • 然后Flatten(),变成一维512*7*7=25088。
  • 经过两层1x1x4096,一层1x1x1000的全连接层(共三层),经ReLU激活。
  • 最后通过softmax输出1000个预测结果。

4、查看Pytorch内置的VGG16模型

import torch
import torchvision
import torch.nn as nn
import torchsummary

# pytorch内置的VGG16的模型
model = torchvision.models.vgg16()
print(model)

控制台部分内容:

5、内置模型的参数量

import torch
import torchvision
import torch.nn as nn
import torchsummary

model = torchvision.models.vgg16()
torchsummary.summary(model,input_size=(3,244,244),batch_size=2,device='cpu')

控制台部分内容:

部分参数量 

Total params: 138,357,544

总的参数量达到了1.38亿。VGG16具有如此之大的参数数目,可以预期它具有很高的拟合能力,但同时缺点也很明显,即训练时间过长,调参难度大。需要的存储容量大,不利于部署。

6、使用Pytorch实现VGG16

class VGG16(nn.Module):
    """
    每个卷积核大小都是3x3,后面步长为1,padding=1
    每个卷积后面都用了ReLU
    """
    def __init__(self,in_channel=3,out_channel=1000,num_hidden=512*7*7):
        super(VGG16,self).__init__()
        self.features=nn.Sequential(
            # block1
            nn.Conv2d(in_channel,64,(3,3),(1,1),1),
            nn.ReLU(inplace=True),
            nn.Conv2d(64, 64, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),

            nn.MaxPool2d(2,2),

            # block2
            nn.Conv2d(64, 128, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(128, 128, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),

            nn.MaxPool2d(2, 2),

            # block3
            nn.Conv2d(128, 256, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(256, 256, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(256, 256, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),

            nn.MaxPool2d(2, 2),

            # block4
            nn.Conv2d(256, 512, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(512, 512, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(512, 512, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),

            nn.MaxPool2d(2, 2),

            # block5
            nn.Conv2d(512, 512, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(512, 512, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),
            nn.Conv2d(512, 512, (3, 3), (1, 1), 1),
            nn.ReLU(inplace=True),

            nn.MaxPool2d(2, 2),
        )
        self.avgpool = nn.AdaptiveAvgPool2d(output_size=(7,7))
        self.classifier = nn.Sequential(
            nn.Linear(num_hidden, 4096),
            nn.ReLU(),
            nn.Dropout(),

            nn.Linear(4096, 4096),
            nn.ReLU(),
            nn.Dropout(),

            nn.Linear(4096, out_channel),
        )
    def forward(self, x):
        x = self.features(x)
        x = self.avgpool(x)
        x = torch.flatten(x, 1)
        x = self.classifier(x)
        return x

上面均为仿照Pytorch内置的VGG16模型的参数编写的。

7、总结

VGG16作为深度学习发展历程中的重要里程碑,强调了通过增加网络深度和一致性设计来提取图像特征。它的成功启发了后续更复杂的网络架构和方法,并在图像分类等任务中取得了重要成就。通过研究和实践,我们可以更好地理解VGG16的原理,并将其应用于实际问题中。

猜你喜欢

转载自blog.csdn.net/m0_62919535/article/details/132189691