Dilated/Atrous conv空洞卷积/多孔卷积

Dilated Dilated convolution/Atrous convolution/Atrous convolution convolution 可以叫空洞卷积或者扩张卷积。

空洞卷积诞生于图像分割领域, 图像输入到网络中经过CNN提取特征,在经过pooling降低图像尺度的同时增大感受野。由于图像分割是pixel-wise预测输出,所以还需要通过upsampling将变小的图像恢复到原始大小。

upsampling通常是通过deconv(转置卷积)完成。因此图像分割FCN有两个关键步骤:池化操作增大感受野, upsampling操作扩大图像尺寸。这儿有个问题,就是虽然图像经过upsampling操作恢复了大小,但是很多细节还是被池化操作丢失了。那么有没有办法既增大了感受野又不减小图像大小呢?Dilated conv 横空出世。在将空洞卷积都会用到原论文中的一张图来说明 

   

在空洞卷积中有个重要的参数叫rate,这个参数代表了空洞的大小。

要理解空洞概念和如何操作可以从两个角度去看:

1)从原图角度, 所谓空洞就是在原图上做采样。采样的频率是根据rate参数来设置的,当rate为1时候,就是原图不丢失任何信息采样,此时卷积操作就是标准的卷积操作,当rate>1,比如2的时候,就是在原图上每隔一 (rate-1)个像素采样, 如图b,可以把红色的点想象成在原图上的采样点,然后将采样后的图像与kernel做卷积,这样做其实变相增大了感受野。

2)从kernel角度去看空洞的话就是扩大kernel的尺寸,在kernel中,相邻点之间插入rate-1个零,然后将扩大的kernel和原图做卷积,这样还是增大了感受野。

在VGG网络中就证明了使用小卷积核叠加来取代大卷积核可以起到减少参数同时达到大卷积同样的感受野的功效。但是通过叠加小卷积核来扩大感受野只能线性增长,公式为(kernelSize−1)∗layers+1, 也就是线性增长,而空洞卷积可以以指数级增长感受野。

猜你喜欢

转载自blog.csdn.net/gqixf/article/details/82908990
今日推荐