反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文
Deconvolutional networks
中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(
Adaptive deconvolutional networks for mid and high level feature learning
)。随着反卷积在神经网络可视化上的成功应用,其被越来越多的工作所采纳比如:场景分割、生成模型等。其中反卷积(Deconvolution)也有很多其他的叫法,比如:Transposed Convolution,Fractional Strided Convolution等等。
这篇文章的目的主要有两方面:
1. 解释卷积层和反卷积层之间的关系;
2. 弄清楚反卷积层输入特征大小和输出特征大小之间的关系。
## 卷积层
卷积层大家应该都很熟悉了,为了方便说明,定义如下:
- 二维的离散卷积(
N=2
N=2
)
- 方形的特征输入(
i1=i2=i
i1=i2=i
)
- 方形的卷积核尺寸(
k1=k2=k
k1=k2=k
)
- 每个维度相同的步长(
s1=s2=s
s1=s2=s
)
- 每个维度相同的padding (
p1=p2=p
p1=p2=p
)
下图表示参数为
(i=5,k=3,s=2,p=1)
(i=5,k=3,s=2,p=1)
的卷积计算过程,从计算结果可以看出输出特征的尺寸为
(o1=o2=o=3)
(o1=o2=o=3)
。
下图表示参数为
(i=6,k=3,s=2,p=1)
(i=6,k=3,s=2,p=1) 的卷积计算过程,从计算结果可以看出输出特征的尺寸为
(o1=o2=o=3)
(o1=o2=o=3)。
从上述两个例子我们可以总结出卷积层输入特征与输出特征尺寸和卷积核参数的关系为:
o=⌊i+2p−ks⌋+1.
o=⌊i+2p−ks⌋+1.
其中
⌊x⌋
⌊x⌋ 表示对
x
x 向下取整。
反卷积层
在介绍反卷积之前,我们先来看看卷积运算和矩阵运算之间的关系。
卷积和矩阵相乘
考虑如下一个简单的卷积层运算,其参数为
(i=4,k=3,s=1,p=0)
(i=4,k=3,s=1,p=0),输出
o=2
o=2。
对于上述卷积运算,我们把上图所示的3×3卷积核展成一个如下所示的[4,16]的稀疏矩阵
C
C, 其中非0元素
wi,j
wi,j 表示卷积核的第
i
i行和第
j
j 列。
⎛⎝⎜⎜⎜⎜w0,0000w0,1w0,000w0,2w0,1000w0,200w1,00w0,00w1,1w1,0w0,1w0,0w1,2w1,1w0,2w0,10w1,20w0,2w2,00w1,00w2,1w2,0w1,1w1,0w2,2w2,1w1,2w1,10w2,20w1,200w2,0000w2,1w2,000w2,2w2,1000w2,2⎞⎠⎟⎟⎟⎟
(w0,0w0,1w0,20w1,0w1,1w1,20w2,0w2,1w2,2000000w0,0w0,1w0,20w1,0w1,1w1,20w2,0w2,1w2,200000000w0,0w0,1w0,20w1,0w1,1w1,20w2,0w2,1w2,2000000w0,0w0,1w0,20w1,0w1,1w1,20w2,0w2,1w2,2)
我们再把4×4的输入特征展成[16,1]的矩阵
X
X,那么
Y=CX
Y=CX 则是一个[4,1]的输出特征矩阵,把它重新排列2×2的输出特征就得到最终的结果,从上述分析可以看出卷积层的计算其实是可以转化成矩阵相乘的。值得注意的是,在一些深度学习网络的开源框架中并不是通过这种这个转换方法来计算卷积的,因为这个转换会存在很多无用的0乘操作,Caffe中具体实现卷积计算的方法可参考Implementing convolution as a matrix multiplication。
通过上述的分析,我们已经知道卷积层的前向操作可以表示为和矩阵
C
C相乘,那么 我们很容易得到卷积层的反向传播就是和
C
C的转置相乘。
反卷积和卷积的关系
全面我们已经说过反卷积又被称为Transposed(转置) Convolution,我们可以看出其实卷积层的前向传播过程就是反卷积层的反向传播过程,卷积层的反向传播过程就是反卷积层的前向传播过程。因为卷积层的前向反向计算分别为乘
C
C 和
CT
CT,而反卷积层的前向反向计算分别为乘
CT
CT 和
(CT)T
(CT)T ,所以它们的前向传播和反向传播刚好交换过来。
下图表示一个和上图卷积计算对应的反卷积操作,其中他们的输入输出关系正好相反。如果不考虑通道以卷积运算的反向运算来计算反卷积运算的话,我们还可以通过离散卷积的方法来求反卷积(这里只是为了说明,实际工作中不会这么做)。
同样为了说明,定义反卷积操作参数如下:
- 二维的离散卷积(
N=2
N=2)
- 方形的特征输入(
i′1=i′2=i′
i1′=i2′=i′)
- 方形的卷积核尺寸(
k′1=k′2=k′
k1′=k2′=k′)
- 每个维度相同的步长(
s′1=s′2=s′
s1′=s2′=s′)
- 每个维度相同的padding (
p′1=p′2=p′
p1′=p2′=p′)
下图表示的是参数为(
i′=2,k′=3,s′=1,p′=2
i′=2,k′=3,s′=1,p′=2)的反卷积操作,其对应的卷积操作参数为
(i=4,k=3,s=1,p=0)
(i=4,k=3,s=1,p=0)。我们可以发现对应的卷积和非卷积操作其
(k=k′,s=s′)
(k=k′,s=s′),但是反卷积却多了
p′=2
p′=2。通过对比我们可以发现卷积层中左上角的输入只对左上角的输出有贡献,所以反卷积层会出现
p′=k−p−1=2
p′=k−p−1=2。通过示意图,我们可以发现,反卷积层的输入输出在
s=s′=1
s=s′=1 的情况下关系为:
o′=i′−k′+2p′+1=i′+(k−1)−2p
o′=i′−k′+2p′+1=i′+(k−1)−2p
Fractionally Strided Convolution
上面也提到过反卷积有时候也被叫做Fractionally Strided Convolution,翻译过来大概意思就是小数步长的卷积。对于步长
s>1
s>1的卷积,我们可能会想到其对应的反卷积步长
s′<1
s′<1。 如下图所示为一个参数为
i=5,k=3,s=2,p=1
i=5,k=3,s=2,p=1的卷积操作(就是第一张图所演示的)所对应的反卷积操作。对于反卷积操作的小数步长我们可以理解为:在其输入特征单元之间插入
s−1
s−1个0,插入0后把其看出是新的特征输入,然后此时步长
s′
s′ 不再是小数而是为1。因此,结合上面所得到的结论,我们可以得出Fractionally Strided Convolution的输入输出关系为:
o′=s(i′−1)+k−2p
o′=s(i′−1)+k−2p
参考
conv_arithmetic
Is the deconvolution layer the same as a convolutional layer?
转自:buptldy.github.io