卷积_池化

Convolution,作用是提取特征和降维。之前学的卷积核(滤波器/特征探测器)已知,如边缘检测算子。卷积神经网络卷积核未知,训练神经网络就是要训练出这些卷积核。图像表示为像素的向量,这样大多数时候非常多,基本没法训练,所以必先减少参数加快速度。卷积核用于提取特征,个数越多提取特征越多,要训练的参数的个数越多。少了的话提取的特征不足。具体多少个合适,还有待学习。

边界处理:SAME和VALID

VALID:对边界不进行处理,输出图片总是比输入图片小。

SAME:填充核减1的一半的零,与原图大小相同。

特征图大小计算

Atrous Convolution

空洞卷积/扩张卷积,向卷积层引入了一个称为 “扩张率(dilation rate)”的新参数,该参数定义了卷积核处理数据时各值的间距,就是带洞的卷积,卷积核是稀疏的。

如下图所示,上面的是普通卷积,下面的是空洞卷积

在相同的计算条件下,空洞卷积提供了更大的感受野。所以当网络层需要较大的感受野,但计算资源有限而无法提高卷积核数量或大小时,可以考虑空洞卷积。其次带洞卷积减少了核的大小,可以达到节省内存的作用,因此经常被用在实时图像分割中。另外,通常卷积过程中为了使特征图尺寸特征图尺寸保持不变,通过会在边缘打padding,但人为加入的padding值会引入噪声,因此,使用空洞卷积能够在保持感受野不变的条件下,减少padding噪声。

pooling

池化,最常见的池化有平均池化 average pooling和最大池化 max pooling,作用是保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高泛化能力。

猜你喜欢

转载自blog.csdn.net/JH0lmes/article/details/82791035