深度学习(五)

卷积神经网络

边缘检测

适用的滤波核为:这里写图片描述
用于检测垂直边缘,经过卷积之后,会将从亮变暗的边缘检测出来,结果显示高亮
水平边缘检测器:
这里写图片描述

padding

1、单纯使用卷积时,根据公式最终结果是 ( n f + 1 ) ( n f + 1 ) ,图像的大小会缩小,边缘信息也会缺失,这时可以进行填充操作,在矩阵外补零来避免,这也就是平常所用的卷积,卷积核中心遍历所有的元素
2、填充共分两种类型:一种是valid,即输入输出尺寸不一致,大小为 ( n f + 1 ) ( n f + 1 ) ,另一种为same,输入与输出大小一致,padding为(f-1)/2

步长

如果步长变化,卷积之后结果为 ( n + 2 p f s + 1 ) ( n + 2 p f s + 1 ) ,如果结果不是整数,可以进行向下取整操作。
实质上,在数学中,上述卷积操作应该是互相关操作,真正的卷积操作应该将卷积核水平垂直翻转后,在进行上述操作,但在深度学习中,我们将其叫作卷积。

卷积

输入通常为m*n*c,其中c为通道数,一般来说,卷积核与其通道数相同,最终得到一个通道的特征,如果使用n个滤波核提取n个特征,最终结果的通道数与特征个数相同
一般来说,CNN由三个部分组成:卷积层,池化层以及全连接层。

池化

1、池化层用来缩小图片尺寸,提高运算速度,同时提高鲁棒性,其示意图为:
这里写图片描述
池化其实就是用来提取比较明显的特征,本人的理解是提取出明显特征,抛弃不明显的特征
2、池化中常用的超参数是滤波器尺寸与步长,通常都取2,而且,池化过程中没有参数需要学习

全连接层

全连接层相当于将卷积层上所有的值,拉长为一个向量,类似于标准的神经网络
一般来说,随着卷积的进行,卷积层的尺寸不断减少,但通道数增多

使用卷积网络的好处

1、参数共享:简单来说,就是整个输入,都可以使用一个特征提取器(滤波核),这是因为一幅图片的分布大致是相同的,因此在图片的某个区域进行特征提取,也可以使用相同的特征提取器在另一个位置进行操作。
2、稀疏连接:结果的某一部分只与输入的某一部分有关

猜你喜欢

转载自blog.csdn.net/yeyustudy/article/details/81353384
今日推荐