人工智能、机器学习与深度学习

一、概念

1、人工智能

    人工智能(Artificial intelligence)简称AI。人工智能是计算机科学的一个分支,它企图了解智能的本质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

    人工智能目前分为弱人工智能和强人工智能和超人工智能。

    1)弱人工智能:弱人工智能(ArtificialNarrow Intelligence /ANI),只专注于完成某个特定的任务,例如语音识别、图象识别和翻译等,是擅长于单个方面的人工智能。它们只是用于解决特定的具体类的任务问题而存在,大都是统计数据,以此从中归纳出模型。由于弱人工智能智能处理较为单一的问题,且发展程度并没有达到模拟人脑思维的程度,所以弱人工智能仍然属于“工具”的范畴,与传统的“产品”在本质上并无区别。

    2)  强人工智能:强人工智能(Artificial Generallnteligence /AGI),属于人类级别的人工智能,在各方面都能和人类比肩,它能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作,并且和人类一样得心应手。

    3)超人工智能:超人工智能(Artificial Superintelligence/ASI),在几乎所有领域都比最聪明的人类大脑都聪明许多,包括科学创新、通识和社交技能。在超人工智能阶段,人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑。此时的人工智能已经不是人类可以理解和想象。人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个新的社会。

    目前我们仍处于弱人工智能阶段。

AI于1956年首先由John McCarthy创造,它涉及能够执行人类智能特征任务的机器。 虽然这有点笼统,但它包括规划、理解语言、识别物体和声音、学习和解决问题等内容。

我们可以将人工智能分为两大类:广义和狭义。广义AI将具有人类智能的所有特征,包括上面提到的能力。 狭义的AI则展现人类智慧的一些方面,并且可以很好地完成这一特征,但在其他领域缺乏相关能力。

2、机器学习

    机器学习(MachineLearning)简称ML。机器学习属于人工智能的一个分支,也是人工智能的和核心。机器学习理论主要是设计和分析一些让计算机可以自动”学习“的算法。

本质上机器学习只是实现人工智能的一种途径。

亚瑟.塞缪尔(Arthur Samuel)在1959年创造人工智能后不久就创造了这个短语,将其定义为“无需明确编程就能具备的学习能力”。你可以在不使用机器学习的情况下获得人工智能,但是这需要建立数百万行具有复杂规则和决策树的代码。

因此,机器学习不是硬编码特定指令来完成特定任务的软件程序,而是一种“训练”算法的方式,以便学习如何做。 “训练”涉及向算法提供大量数据,并允许算法自行调整并改进。

举个例子,机器学习已经被用来大幅改进计算机视觉(机器识别图像或视频中的物体的能力)。 你收集数十万甚至数百万张图片,然后让人类给他们加标签。例如,人类可能会标记其中有猫的图片。然后,该算法试图建立一个模型,可以像人类那样准确地将图片标记为包含猫或不包含猫。 一旦准确度足够高,我们可以认为机器现在已经“学习”了猫的样子。

3、深度学习

    深度学习(DeepLearning)简称DL。最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络本身并不是一个全新的概念,可大致理解为包含多个隐含层的神经网络结构。为了提高深层神经网络的训练效果,人们对神经元的连接方法和激活函数等方面做出相应的调整。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,如图象、声音、文本。

深度学习是机器学习的众多方法之一。其他方法包括决策树学习、归纳逻辑编程、聚类、强化学习和贝叶斯网络等。

深度学习受到大脑结构和功能的启发,即许多神经元的相互连接。人工神经网络(ANN)是模拟大脑生物结构的算法。

在人工神经网络中,有“神经元”,它们与其他“神经元”具有不连续的层和连接。每个图层挑选一个特定的要学习的特征,例如图像识别中的曲线/边缘。正是这种层次才给了深度学习这个名字,深度是通过使用多层而不是单层创建的。

注意:你可能在接触深度学习的时候也听到过监督学习、非监督学习、半监督学习等概念,下面就顺便对这三个名词解析下:

1)监督学习:用一部分已知分类、有标记的样本来训练机器后,让它用学到的特征,对没有还分类、无标记的样本进行分类、贴标签。多用于分类。

2)非监督学习:用一部分已知分类、有标记的样本来训练机器后,让它用学到的特征,对没有还分类、无标记的样本进行分类、贴标签。多用于聚类。

3)半监督学习:有两个样本集,一个有标记,一个没有标记。综合利用有类标的样本( labeled sample)和没有类标的样本( unlabeled sample),来生成合适的分类。

二、区别于联系

    机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。如下图(来源http://baijiahao.baidu.com/s?id=1588563162916669654&wfr=spider&for=pc):

                              

下面一张图能更加细分其关系:


注意:在上幅图中,我们可以看下机器学习下的深度学习和监督学习以及非监督学习,那它们之间是什么关系呢,其实就是分类方法不同而已,他们之间可以互相包含。打个比方:一个人按性别可以分为男人和女人,而按年龄来分可以分为老人和小孩子。所以在深度学习中我们可以用到监督学习和非监督学习,而监督学习中可以用到很基础的不含神经元的算法(KNN算法)也可以用到添加了多层神经元的深度学习算法。

三、应用场景

1)    人工智能的研究领域在不断的扩大,包括专家系统、机器学习、进化计算、模糊逻辑、计算机视觉、自然语言处理、推荐系统等。并且目前的科研工作都集中在弱人工智能这部分。

2)    机器学习直接来源于早期的人工智能领域,传统的算法包括决策树、聚类、贝叶斯分类、支持向量机、EM、Adaboost等等。从学习方法上来分,机器学习可以分为监督学习(如分类问题)、无监督学习(如聚类问题)、半监督学习、集成学习、深度学习和强化学习。传统的机器学习算法在指纹识别、人脸检测、特征物体检测等领域的应用基本达到了商业化的要求或特定场景的商业化水平。

3)    深度学习本来并不是一种独立的学习方法,其本身也会用到监督学习和无监督学习方法来训练深度神经网络,但由于近年来改领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习方法。主要应用在互联网、安防、金融、智能硬件、医疗、教育等行业,在人脸技术、图象识别、智能监控、文字识别、语义分析等领域。
 

传统机器学习与深度学习的区别

1)传统机器学习:利用特征工程 (feature engineering),人为对数据进行提炼清洗
2)深度学习:利用表示学习 (representation learning),机器学习模型自身对数据进行提炼,不需要选择特征、压缩维度、转换格式等对数据的处理。深度学习对比传统方法来说,最大的优势是自动特征的提取
现实中遇到的绝大部分机器学习问题,基于原始特征(Input Space)无法找到分类超平面把训练数据里的正例和负例恰好分开。
在机器学习领域,有一些通用的手段来处理线性不可分的问题,譬如可以在Input Space 寻求非线性分界面,而不再寻求线性分界面;也可以通过对特征做预处理,通过非线性映射的手段把训练数据从Input Space 映射到一个所谓的Feature Space,在原始Input Space无法线性可分的样例在Feature Space有可能线性可分。深度学习就是这种思想的一个典型应用。
“深度模型”是手段,“特征学习”是目的

区别于传统的浅层学习,深度学习的不同在于:
1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;

2)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。
与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。

3)DL采用了与神经网络很不同的训练机制。传统神经网络中,采用的是back propagation的方式进行,简单来讲就是采用迭代的算法来训练整个网络,随机设定初值,计算当前网络的输出,然后根据当前输出和label之间的差去改变前面各层的参数,直到收敛(整体是一个梯度下降法)。而deep learning整体上是一个layer-wise(逐层)的训练机制。
这样做的原因是因为,如果采用back propagation的机制,对于一个deep network(7层以上),残差传播到最前面的层已经变得太小,出现所谓的gradient diffusion(梯度扩散)。
 

(1)传统机器学习算法,在一开始,性能(识别率)会随着数据的增加而增加,但一段时间后,它的性能会进入平台期。这些模型无法处理海量数据。
(2)最近20年来,人类建立了数字王国,使得我们在电脑、网站、手机上的活动,都制造大量数据。便宜的相机、传感器,也产生大量数据。
(3)不同规模的网络,取得的性能也会有不同(具体如下)。

这里写图片描述

要想在神经网络上取得更好的表现,在今天最可靠的手段,要么训练一个更大的神经网络,要么投入更多的数据。但这也只能在一定程度上起作用,因为你最终耗尽了数据,或者你的网络规模太大,训练时间太久。

但提升规模,已经让我们在深度学习的世界中,取得了大量进展。

还有一点要记住,这里所说的“大数据”,是指带标签的数据。

还要注意的是,数据量不大时,各种算法的性能优劣是无法知道的。只有在大数据的前提下,在非常庞大的训练集下,我们才能看到神经网络稳定领先于其他算法。
 

发布了25 篇原创文章 · 获赞 139 · 访问量 116万+

猜你喜欢

转载自blog.csdn.net/shenwansan_gz/article/details/99422526