神经网络与深度学习笔记

1、神经网络

        感知机就是一个人工神经元,是最简单的神经网络,可以用来解决简单“与”和“或”分类问题,但是无法解决“异或”逻辑分类问题这一基础功能。这也导致了神经网络研究陷入低谷。

      为解决XOR问题,1974年哈佛大学的一片博士论文证明在神经网络多加一层,并利用“反向传播”学习方法,可以解决XOR问题。这就是多层神经网络也叫前馈神经网络。


2、深度学习

        深度神经网络通常是前馈神经网络,至少有 一个隐层,可以为复杂非线性系统提供建模,多的隐层可以提供更高的抽象特征。深度神经网络是一种结构不是一种算法。深度学习可以用来从高维、复杂的数据中快速抽取特征。深度学习是神经网络的一个分支,其基本结构是深度神经网络。

        高层特征是底层特征的组合,从底层到高层的特征表达越来月抽象和概念化,即越来越能表现语义或意图。不同的图片可以由基本的组成单元构成。从下图可以看出,底层特征看起来基本一致,高一层就能看出来不同了,再往上一层就能识别具体物体了。


2.1浅层学习和深度学习      

         含有一个隐藏层的就叫做多层感知机,也叫神经网络,这种模型叫浅层结构,这种模型可以用于人工规则的统计学习方法,利用这种浅层模型实现较复杂的训练,实现基本的分类。例如SVM、Boosting、最大熵方法。 深度学习不止一层隐层,如上图,最底层的基本线条看起来一致,如果要从基础线条中识别出脸、汽车、大象则需要不断手工修改参数,才有可能训练出只区分脸和汽车的模型。这种情况下需要调整的参数过多,需要的样本巨大,且需要人工的干预,这就是深度不够的缺陷。
        直到2006年,以Hinton为首的研究员在深度信念网络(DBN)方面的工作,将此问题终结。他们训练网络的原则是:(1)、非监督学习用来预训练各个层(2)、分监督在之前学习到的层次上,一次只学习一个层次,每个层次学习到的结果作为下一层的输入(3)、用监督学习来调整层与层之间的权重

2.2深度学习和神经网络

        深度学习和传统的神经网络之间的相同之处,就是二者都有相似的分层结构,包括输入层、隐层和输出层,其中只有邻层之间有连接,同一层及跨层之间没有连接。不同之处在于,传统神经网络一般只有二至三层,参数和计算单元有限,对复杂函数的表示能力有限,学习能力有限;而深度学习具有五至十层,甚至更多。

2.3如何训练神经网络

        BP的全称是Back Propagation,意思是误差反向传输。基本想法是:有信号正向传播和误差反向传播。(1)、信号正向传播:输入样本从输入层传入,经各个隐层逐层处理后,传至输出层。若输出层的实际输出与期望不符,则转入误差反向传播阶段。(2)、误差反向传播:将输出以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元误差信号。
            注意:5层以内的神经网络可以用BP算法训练,5层以上的神经网络用BP算法训练就不理想了。会出现梯度消失或者梯度爆炸情况。

2.4总结

        在图像处理中,我们可以用像素集合体表示完整的图像,这时特征选取的好坏对于分类或预测结果影响非常大,因此选取一个什么特征,怎么选取特征对于解决实际问题非常重要。然而,人为的选取特征是一件耗时耗力且没有规律可循。那能不能让机器自动学校一些特征?答案是能,深度学习就是来干这个的。因此自动学习特征的方法,统称为深度学习。
        深度学习首先利用无监督学习对每一层进行逐层训练去学习特征;每次单独训练一层,并将训练结果作为更高层的输入;然后到最上层改用监督学习从上到下进行微调(Fine-Tune)去学习模型。
        具体过程如下:
       (1)使用自上而下的非监督学习(就是从底层开始,一层一层地往顶层训练)。采用无标定数据(有标定也行)分层训练各层参数。用无标定数据训练隐层的最底层,训练时先学习最底层的参数,(可以看成是得到一个使得输入和输出差别最小的三层神经网络的隐层)。
         (2)自顶向下的监督学习,就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调。基于第一步的各层参数进一步Fine—tune整个多层模型参数;类似神经网络的随机初始化处置过程,深度学习的第一步不是所及初始化,而是通过学习输入数据的结构得到的,因此这个初值接近全局最优,能够取得更好的效果;所以深度学习效果好很大程度上归功于第一步(特征学习过程)。

参考资料

《神经网络与深度学习》——吴岸城

http://www.cnblogs.com/alexcai/p/5506806.html

猜你喜欢

转载自blog.csdn.net/wcx1293296315/article/details/80960339
今日推荐