深度学习用于计算机视觉

密集连接层(精度97.8%)------>卷积神经网络(99.3%)   两者的区别在于:Dense层从特征空间学到的是全局模式,而卷积层学到时是局部模式

1 卷积神经网络学到的模式具有平移不变性(视觉世界根本上来说就具有平移不变性),即在图像右下角学到某个模式后可以在任何地方识别这个模式。对于密集连接网络来说如果出现在新的位置,它只能重新学习这个模式。

2 卷积神经网络可以学到模式的空间层次结构(视觉世界根本上具有空间层次结构)。如下图,第一个卷积层学习到局部模式如边缘,第二个卷积层将学习由第一层特征组成的更大的模式。

卷积工作原理如上图所示

输出的宽度和高度可能和输入的不同,原因:1 边界效应(可以通过对输入特征图进行填充来抵消) 2 使用了步幅(可以理解为采样跨度)

最大池化运算:对特征图进行下采样,特征图的尺寸都会减半   26*26------>13*13

最大池化是从输入特征图中提取窗口,并输出每个通道的最大值,通常使用2*2的窗口和步幅2,目的是下采样2倍,一方面可以较少需要处理的特征图的元素个数,其次可以让连续卷积层的观察窗口越来越大,从而引入空间过滤器的层级结构。

用来解决小型数据集的图像分类的问题的思路:1从头开始训练一个小型模型  2用预训练的网络做特征提取(对于卷积神经网络而言特征提取就是取出之前训练好的网络的卷积基) 3 对预训练的网络进行微调

在图像处理上,防止过拟合除了权重衰减和dropout,还可以使用数据增强(从现有的训练样本中生成更多的训练数据,其方法是利用多种能够生成可信图像的随机变换(旋转,平移,缩放)来增加样本,其目标是在训练时不会两次查看完全相同的图像,让模型观潮到更多内容)。

猜你喜欢

转载自blog.csdn.net/IT_NEU_Lee/article/details/84589720