为什么卷积神经网络中一般用奇数的卷积核

今天看到一篇比较有意思的文章,也解开了我一直一个疑问:为什么现在卷积神经网络中卷积核都是奇数的。比如3×3,5×5,7×7.

3×3的卷积核也是在VGG证明了用两个可以代替一个7*7效果更好,且参数还更少。那么为什么没有人用两个2×2的卷积核代替3×3的卷积核,或者就是直接用2×2的卷积代替3×3呢?

今天看到的文章,Convolution with even-sized kernels and symmetric padding这篇文章就解释了整个问题。

特征的便偏移问题:

如果用偶数卷积核话 网络在进行卷积操作时很难找不到卷积的中心点,也就是偶数卷积核不对称这个问题也导致了导致在填充的(padding)的时候像素特征不断偏移.然后随着层次的加深,这个偏移现象就越来越明显。这种偏移问题,在一些任务,比如语义分割,等一些需要知道特征具体像素位置的任务中就产生了很大的影响。下面这张图就是作者论证的。

这些问题也导致了,现在大家基本不用2×2或者4×4之类的卷积核。那么作者是如何解决这个问题的呢。其实也很简单,那就是四个角填充。如下图

作者也论证了这个方法的有效性。我在这里就不细说作者实验部分了。大家感兴趣可以直接去看论文。论文我放在上面了

发布了88 篇原创文章 · 获赞 55 · 访问量 16万+

猜你喜欢

转载自blog.csdn.net/nijiayan123/article/details/102560748