泛统计理论初探——初探卷积神经网络

神经网络学习-初探卷积神经网络方法

初步理解卷积神经网络
    在之前的文章中,我们介绍过最简单的神经网络,当没有非线性激活函数的时候,这种神经网络其实就是多层感知机,或者说就是一个线性模型。而在后面也介绍了BP神经网络,这种神经网络加入了非线性的激活函数以及负反馈的机制,从而使得神经网络的预测准确性提升了一个档次。在本文中,我们将会初步介绍卷积神经网络,也就是俗称CNN的神经网络,这种卷积神经网络在图像识别刚开始火的时候应用非常广泛,下面我们来介绍卷积神经网络。
    卷积神经网络的结构和BP神经网络是显然不同的,因为BP神经网络是由多层的全连接层进行连接构成的一种网络拓扑结构;而对于卷积神经网络来说,它是由多层(卷积+池化)这种结构的重复,同时是在最后一层加上一个全连接层的,这种卷积和池化的结构重复其实是一种反复地特征提取,下面的图就是卷积神经网络结构的体现,可以很清楚的看见在输入层和输出层之间是有多个(卷积+池化)以及1个全连接层所构成的。
在这里插入图片描述
    卷积神经网络第一个重要的特点是具有参数稀疏的特性,在传统的BP神经网络里每一层之间的神经元是互相连接的,并且是互相全部连接的,比如A层有10个神经元,B层有10个神经元,那么在A与B之间的连接数就是10乘10是100个连接,当层数较多的时候会存在参数爆炸的情况,加大了训练的难度并且减慢了训练速度,同时需要更多的数据进行训练;而在CNN卷积神经网络里是局部连接的,可能A层和B层的连接数量只有20个,剩下的神经元之间可能是没有进行连接的,这种稀疏性为后续使用在图像识别的应用打下了的基础,因为图像识别是要识别图像里的目标,不需要对所有像素进行训练,抛弃那些无关紧要的像素正是卷积神经网络的稀疏连接所体现的特点。同时因为神经元连接数的降低,使得需要训练的参数大大减少,加快了训练的速度并且使得模型的扩展性变得更强。
    卷积神经网络第二个重要的特点是具有参数共享的特性,在传统BP神经网络里每一次的神经元互相之间是独立的,也就是说要用数据去训练每一层的每一个神经元的参数,这是严重影响了训练效率,并且在某些情况下容易造成过拟合的情况。在卷积神经网络里,使用者只需要学习一组参数的集合即可,因为它是在卷积的时候去学习那一组参数,也就是不需要像BP神经网络里在每一层都需要学习一个参数矩阵W,而是学习一个较小的方阵比如3x3的方阵它只有9个参数;而原来的参数矩阵W可能是7*7有49个参数,显然这种参数共享性可以使得训练效率大为提升。从另一个角度来看,正是这种卷积的特点,使得在图像识别的领域上使用这种卷积神经网络是合理的,因为在参数共享的时候会让卷积层具有一种平移不变性,也就是说在图像里的目标无论是如何平移到任何位置,它本身的含义是不变的,不会让一只狗经过普通平移后变成一只兔子,所以最开始在图像识别中频繁使用的卷积神经网络其实是天然地适合这种二维网络结构的目标识别的。
    总的来说,卷积神经网络是在图像识别和文本分类等应用均有使用,其本身的系数稀疏性和参数共享性是加快训练速度的,并且在一定程度上避免了过拟合的情况,但是卷积神经网络不是万能的,因为在某些语义理解或者图像理解的问题中,使用CNN是不合理的,因为CNN的网络特性是天然适用于目标检测类的问题的,而对于目标理解的问题则会显得捉襟见肘。对于初学者来说,需要明确BP神经网络和卷积神经网络各自的优缺点和网络结构,在不同的问题上使用不同的方法,更好地去解决问题。

猜你喜欢

转载自blog.csdn.net/qq_26727101/article/details/109254234