深度学习分类网络篇的总结(持续更新ing~)

为了让学习思路比较清晰,我们把近期网络篇学习的大纲放在下面(实际上也是激励我们…认真学习不能放弃呜呜呜)!后面会将持续更新的网络篇的博客地址放在下面,还请各位大大们持续关注和支持!!!蟹蟹大家!给你们比心心~
在这里插入图片描述
说到对深度学习分类网络的总结,我们不妨先来回顾一下这些网络都做了什么优秀的事情(因为是总结,可能不够全面,想要详细了解的小伙伴可以看我们博客链接的详细介绍)。

一、AlexNet(2012年)

网络结构: 采用了8层的神经网络,其中包含5个卷积层(其中有3个卷积层后连接了最大池化层,激活函数选用的Relu,并且做了标准化),3个全连接层(2048)和softmax层(1000);卷积核大小:11x11、5x5、3x3;
AlexNet=(conv+relu+maxpooling)×3+(conv+relu)×2+fc×2+softmax
训练过程: 两台GPU串联提高运行速度;
防止过拟合: 一是数据增强:将原始图像227x227x3进行水平翻转,随机裁剪为224x224x3的输入图像,并做了PCA的主成分分析;二是用了Dropout,随机忽略一部分的神经元,训练时keep_prob为0.5,测试时keep_prob为1;
博客的链接:
深度学习网络篇——AlexNet
深度学习网络篇——AlexNet在MNIST的代码实现

二、ZFNet(2013年)

ZFNet的目的:可视化和理解卷积神经网络! 所以在网络中引入了反池化和反卷积,可视化过程为:输入图片-> 卷积-> Relu-> 最大池化->得到结果特征图-> 反池化-> Relu-> 反卷积。
网络结构: 网络结构与AlexNet的网络结构基本相同,只是把第一层卷积的卷积核大小替换为7x7,把全连接层的神经元个数增加到4096;卷积核大小:7x7、5x5、3x3;
ZFNet=(conv+relu+maxpooling)×2+(conv+relu)×3+fc×2+softmax
训练过程: 单GPU的密集运算;
博客的链接:
深度学习网络篇——ZFNet(Part1 从AlexNet到ZFNet)
深度学习网络篇——ZFNet(Part2 ZFNet的训练细节)
深度学习网络篇——ZFNet(Part3 ZFNet的实验环节)

三、NIN(2014年)

博客的链接:
深度学习网络篇——NIN(Network in Network)

四、VGGNet(2014年)

博客的链接:
深度学习网络篇——VGGNet(Part1 网络结构&训练环节)
深度学习网络篇——VGGNet(Part2 分类测试&总结)

五、GoogLeNet(2014年)

博客的链接:
深度学习网络篇——GoogLeNet
深度学习网络篇——Inception v2
深度学习网络篇——Inception v3

六、ResNet(2015年)

博客的链接:
深度学习网络篇——ResNet

七、DenseNet(2017年)

博客的链接:
深度学习网络篇——DensesNet

八、轻量级网络

博客的链接:
轻量级深度学习网络——MobileNet & MobileNet v2
轻量级深度学习网络——ShuffleNet & ShuffleNet v2

猜你喜欢

转载自blog.csdn.net/weixin_43624538/article/details/84541110