深度学习卷积的操作原理

深度学习卷积的操作原理

熟悉深度学习模型中用到的各种取巧的卷积操作,使得参数量减少
深度可分离卷积(depthwise separable convolution)、分组卷积(group convolution)、空洞卷积(Dilated convolution)

  • 分组卷积(group convolution)
    原理:将输入(CxWxH)分成g组数(变成C/g x W x H),然后进行相应的卷积操作(比如3x3,则k/gx3x3进行每组的卷积操作),最后进行通道融合操作,最后输出的参数数量为k/g x w2 x h2。
    在这里插入图片描述
  • 深度可分离卷积(depthwise separable convolution)

深度可分离卷积和分组卷积类似,是分组卷积的变形体!

从分组卷积的角度来看,分组数就像一个控制旋钮,最小值是1,此时的卷积就是普通卷积;最大值是输入feature map的通道数,此时的卷积就是depthwise sepereable convolution,即深度分离卷积,又叫逐通道卷积。

  • 空洞卷积(Dilated convolution)
    空洞卷积(dilated convolution)是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。利用添加空洞扩大感受野,让原本3x3的卷积核,在相同参数量和计算量下拥有5x5(dilated rate =2)或者更大的感受野,从而无需下采样。

  • 扩张卷积(dilated convolutions)

又名空洞卷积(atrous convolutions),向卷积层引入了一个称为 “扩张率(dilation rate)”的新参数,该参数定义了卷积核处理数据时各值的间距。换句话说,相比原来的标准卷积,扩张卷积(dilated convolution) 多了一个hyper-parameter(超参数)称之为dilation rate(扩张率),指的是kernel各点之前的间隔数量,【正常的convolution 的 dilatation rate为 1】。

在相同的计算条件下,空洞卷积提供了更大的感受野。空洞卷积经常用在实时图像分割中。当网络层需要较大的感受野,但计算资源有限而无法提高卷积核数量或大小时,可以考虑空洞卷积。

参考博客:
https://www.jianshu.com/p/a936b7bc54e3
https://blog.csdn.net/u012426298/article/details/80853553

猜你喜欢

转载自blog.csdn.net/ganbelieve/article/details/107965476