【书籍阅读】DeepLearning----第九章-卷积神经网络

  卷积神经网络的一个优点是较之基于矩阵乘法的神经网络,它们还可以处理具有变化的空间尺度的输入。

池化

  池化函数使用某一位置的相邻输出的总体统计特征来替代网络在该位置的输出。当输入作出少量平移时,池化能帮助我们的表示近似不变。

池化函数的作用

  缩减模型大小(feature),提高计算速度,同时提高所提取特征的鲁棒性;
  池化函数也可以让CNN模型处理不同大小的图片,利用SPP(Spatial Pyramid Pooling,空间金字塔池化),让不同大小的图片变成相同向量大小,从而能统一进行全连接操作。

均值池化和最大池化

  在使用均值池化时,若区域有很多零元素,则会削弱较大激活值的贡献,不能很好的反映池化区域的特征,同时会对权值产生较大影响;
  使用最大池化能解决零元素积聚的问题,但其只会传递最大值,使得较小的激活无法传递到下一层,在实际应用中容易产生过拟合,网络的泛化能力较差;

非共享卷积

  非共享卷积是是局部连接的一种,其带有一个小的离散卷积核,但并不横跨位置来共享位置。
  当我们知道每一个特征都是一小部分空间的函数而不是整个空间的特征时,局部连接层是很有用的。比如,当我们要判断一张图片是否是人脸时,我们只需要去寻找嘴是否在图像的下部中央部分即可。

拼接卷积

  对于正常卷积而言,我们使用同一个卷积核滑动遍历图片;对于拼接卷积而言,我们使用t个卷积核滑动,也就是在滑动时,循环使用下一个卷积核。所以传统卷积相当于 t = 1 的拼接卷积。

  对图像逐个像素进行标记(预测),可以用来获得图像在区域上的分割,一般的想法是假设大片相连的像素倾向于对应着相同的标签。

无监督特征学习

使用无监督学习来学习特征,在利用神经网络的线性分类器来预测标签。论文如下:An Analysis of Single-Layer Networks in Unsupervised Feature Learning

猜你喜欢

转载自blog.csdn.net/qq_19784349/article/details/80816047