图像卷积-图像相关的区别

图像处理中常常需要用一个滤波器空间滤波操作。空间滤波操作有时候也被叫做卷积滤波,或者干脆叫卷积(离散的卷积,不是微积分里连续的卷积);滤波器也有很多名字:卷积模版、卷积核、掩模、窗口等。

空间滤波可以分为线性滤波和非线性滤波。非线性滤波常见的有中值滤波、最大值滤波等,相当于自定义一个函数,在数学上由于不满足线性变换因此叫做非线性滤波。这里不细研究它。

线性滤波则通常是:将模版覆盖区域内的元素,以模版中对应位置元素为权值,进行累加。

两种模式:

相关(cross-correlation)

将模版中元素从左到右、从上到下,作为使用顺序,那么卷积操作的结果,就是模版第一个元素乘以它覆盖的元素,加上模版第二个元素乘以它覆盖的元素,再加上模版第三个元素乘以它覆盖的元素,...,一直加到模版最后一个元素乘以它覆盖的元素。好吧,其实就是:模版覆盖区域内,元素逐一相乘然后累加,此时的对应位置就是上下投影后被覆盖的位置。

卷积(convolution)

将同样的模版旋转180°后,再做"相关"操作。当然,如果模版是180°对称的那么卷积和相关是相同的。但是并不是所有的模版都对称。

即为如下:

然后进行刚才同样的操作

这里讲一下平时的拉普拉斯算子

\left [ \begin{pmatrix} 0 & 1 & 0\\ 1& -4& 1\\ 0 & 1& 0 \end{pmatrix} \right ]

旋转180°依然是

\left [ \begin{pmatrix} 0 & 1 & 0\\ 1& -4& 1\\ 0 & 1& 0 \end{pmatrix} \right ]

所以滤波到底使用的是卷积还是相关也无关紧要,只和数学原理有关

但是

并不是所有的模版都对称

这里值得说的一点是:

神经网络中的CNN卷积层,使用的是卷积模式,但是和别人讨论产生观点歧义,先按吴恩达的走,或许他是为了计算方便,反正是训练出来的模板,180是否翻转都是训练出来的,神经网络自己把翻转后的训练出来不就可以了嘛

猜你喜欢

转载自blog.csdn.net/baidu_40840693/article/details/83006932