深度学习:卷积神经网络(CNN)基本概念

卷积神经网络架构中牵涉到几个概念:卷积、激活函数、池化、全连接。

卷积,卷积是将原始图像与一个设计好的矩阵(一般称为滤波器)按位相乘,这样就会得到一个新的矩阵。举个例子,假设我们要识别老鼠的尾巴,我们可以设计如下图类似的滤波器。
这里写图片描述

接来下,开始进行卷积——原图与滤波器按位相乘。当识别到老鼠尾巴时,会得到一个很大的卷积值。
这里写图片描述
反之,当识别到的不是老鼠尾巴部位时,卷积结果将会很小,甚至为0。
这里写图片描述

激活函数,激活函数也通常被称作核函数,可以将非线性可分类型映射为线性可分。例如,下图中就可以使用abs(绝对值函数)作为激活函数,将蓝色与红色点线性分开。不过,分类问题一般使用softmax作为激活函数。
这里写图片描述

全连接,全连接是一种代价极高的操作,卷积神经网络中使用了局部参数共享以及池化技术来改善这一过程。局部参数共享,从下图中可以看出,随着层数越深,g3受到x1~x5的影响。

这里写图片描述

池化,另一个重要技术为池化,它可以在一定程度上识别不同程度漂移的图片。比如,一张人脸在正中间的图片,和人脸位于图像左侧(或右侧)的图片,对于卷积神经网络来说是几乎无区别的。
这里写图片描述

References:
[1] Ian, Goodfellow, Yoshua, Bengio. 深度学习[M]. 北京:人民邮电出版社, 2017.
[2] 能否对卷积神经网络工作原理做一个直观的解释?


©qingdujun
2018-6-9 于 北京 怀柔

猜你喜欢

转载自blog.csdn.net/u012339743/article/details/80635946