深度学习的一些基本概念-CNN(1)

CNN:想比较于传统的图像处理算法,他的优点在于避免了复杂的前期预处理过程,可以直接输入原始图像,在图像处理时候会将图像看做二维向量,类似矩阵所构成的点集合,该点上存在几个数据就将它看做几层,例如RGB就是三层。也就是说在这个点上包含三个元素。传统的神经网络是词用全连接方式,这样会导致参数量一直被放大,导致网络训练效率十分低下,CNN通过局部连接,权值共享,来避免这种情况发生。

局部连接:如下右图

权值共享: 对于一些计算量比较大的大型网络,采取使用权值共享,再采取局部连接之后,将局部所需要的权值训练好,那么将这个局部训练好的权值共享给其他的神经元,那么需要训练的权值数量将会大大减少(也就是卷积核《或者叫做滤波器》,但是一个卷积核只映射一种特征Feature Map,可以增加多个卷积核)

卷积层:提取图像的各种特征卷积核在上一级输入层上通过逐一滑动窗口计算而得,卷积核中的每一个参数都相当于传统神经网络中的权值参数,与对应的局部像素相连接,将卷积核的各个参数与对应的局部像素值相乘之和,(通常还要再加上一个偏置参数)。

池化层:对原始特征信号进行抽象,进行大幅度减少训练参数,还可以减轻模型过拟合的程度。

池化操作一般有两种,一种是MAXpooling


第二种就是AVG pooling   就是取平均值。比如对每一个2*2的区域元素求和,再除以4,得到主要特征),而一般的filter取2*2,最大取3*3,stride取2,压缩为原来的1/4.

偏置参数:调节区分性能,不加偏置的时候分割线都是过原点的,但是现实情况却不是如此。

猜你喜欢

转载自blog.csdn.net/qq_36967497/article/details/80594924