卷积神经网络CNN进步史之分类领域小论文文章总结帮助初学者找文献

1.AlexNet

“Image Classification with Deep Convolutional Neural Networks” Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton (2012)
这篇论文提出了一种基于卷积神经网络的图像分类方法,即AlexNet,采用了多层卷积和池化层以及全连接层来实现图像的分类,取得了当时ImageNet大规模视觉识别挑战赛的冠军

2.VGG

“Very Deep Convolutional Networks for Large-Scale Image Recognition” Karen Simonyan and Andrew Zisserman (2014)
这篇论文介绍了VGG模型,也是一种基于卷积神经网络的图像分类方法,与AlexNet相比,VGG模型更加深层,采用了多个3x3卷积核来代替较大的卷积核,从而增强了特征提取的能力。

3.GoogLeNet

“Going Deeper with Convolutions” Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich (2014)
这篇论文提出了Inception模型,也是一种基于卷积神经网络的图像分类方法,该模型采用了多个不同尺寸的卷积核和池化层,并通过并联的方式来实现特征提取,可以有效减少模型的参数量和计算复杂度。

4.ResNet

“Deep Residual Learning for Image Recognition” Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun (2016)
这篇论文提出了ResNet模型,也是一种基于卷积神经网络的图像分类方法,该模型通过引入残差块来解决深度神经网络训练中的梯度消失和退化问题,可以实现更深层的神经网络结构,并在ImageNet数据集上取得了更好的分类性能。

5.MobileNet

“MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications” Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, and Hartwig Adam (2017)
这篇论文提出了MobileNet模型,是一种轻量级的卷积神经网络,可以在移动设备上进行实时的图像分类和目标检测任务。该模型采用了深度可分离卷积层来减少计算量和参数量,同时保持较高的分类准确率。

6.SqueezeNet

“SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size” Forrest N. Iandola, Song Han, Matthew W. Moskewicz, Khalid Ashraf, William J. Dally, and Kurt Keutzer (2016)
这篇论文提出了SqueezeNet模型,也是一种轻量级的卷积神经网络,可以在资源受限的环境中进行实时的图像分类任务。该模型采用了火车头(Fire Module)结构来减少计算量和参数量,同时保持较高的分类准确率。

7.DenseNet

“Densely Connected Convolutional Networks” Gao Huang, Zhuang Liu, Laurens van der Maaten, and Kilian Q. Weinberger (2017)
这篇论文提出了DenseNet模型,也是一种基于卷积神经网络的图像分类方法,该模型通过在每个卷积层中将输入特征图与之前的所有特征图进行拼接来实现特征的复用,可以有效减少模型的参数量和计算复杂度,同时还可以缓解梯度消失的问题,从而提高训练效率和分类性能。

8.技巧和策略相关

“Bag of Tricks for Image Classification with Convolutional Neural Networks” Tong He, Zhi Zhang, Hang Zhang, Zhongyue Zhang, Junyuan Xie, and Mu Li (2018)
这篇论文提出了一些实用的技巧和策略来进一步提高卷积神经网络的分类性能,例如使用更大的batch size、更高效的优化算法、更加有效的数据增强方法等等,可以在不增加模型复杂度的情况下大幅提升分类精度。

9.BiT

“Big Transfer (BiT): General Visual Representation Learning” Andrew Zhai, Alexander Kolesnikov, Niki Parmar, Joan Puigcerver, and Matthias Toussaint (2020)
这篇论文提出了BiT模型,也是一种基于卷积神经网络的图像分类方法,该模型通过在大规模图像数据集上进行无监督预训练和有监督微调来实现通用的视觉表示学习,可以在各种不同的视觉任务上取得出色的性能,同时还具有很强的泛化能力和可迁移性。

10.模型优化和调整相关

“Visualizing and Understanding Convolutional Networks” by Matthew D. Zeiler and Rob Fergus (2014)
这篇论文介绍了一种可视化卷积神经网络中特征图和过滤器的方法,可以帮助理解卷积神经网络中的特征提取和分类原理,并提供了一些有关模型优化和调整的指导性思路,对于学习卷积神经网络的分类方法有一定的帮助。

11.Inception V2 V3

“Rethinking the Inception Architecture for Computer Vision” Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jonathon Shlens, and Zbigniew Wojna (2016)
这篇论文对Inception模型进行了改进和优化,提出了Inception-v2和Inception-v3模型,分别采用更加高效的卷积操作和模块化的结构来提升模型的性能和可训练性,同时还提出了一些实用的技巧和策略来进一步优化模型的分类性能。

以上这些论文都是卷积神经网络分类领域的重要参考文献,可以从不同角度和方面来理解卷积神经网络的分类方法和发展趋势。
如果你想了解最新的卷积神经网络分类方面的研究进展和论文,最新的卷积神经网络分类研究进展也会经常出现在计算机视觉相关的国际学术会议和期刊上,例如CVPR、ICCV、ECCV等会议和TPAMI、IJCV等期刊,你可以关注这些会议和期刊的最新发表论文和研究报告,以获得更全面和及时的信息。

猜你喜欢

转载自blog.csdn.net/qq_55433305/article/details/129812024