关于AI的一些小白总结

人工智能 机器学习  深度学习;:

其实近几年AI这个名词很火,现在已经到封口浪尖上了,以前一个企业说搞AI这块,都没人敢投资,现在一听说搞AI,都抢着投资这家公司,为什么呢,因为以前的技术不够成熟,硬件不够成熟,数据不够多,最主要的好像是当时有个比较牛的人出了本书,书是非常不错的,当时提出了一个问题,说这个问题不解决,AI是得不到大的突破的,有兴趣的同学可以了解下,这就造成了之前AI 的惨淡气象。

当然如今,AI蓬勃发展,同时作为AI的招牌语言python也是如日中天,关于python最近我有幸简单学习了下(毕竟这门语言好像快被上身为青少年通用语言了,有些初级学生都开始学习这门语言,不了解下,有点丢人啊),感觉确实很强大,很适合做一些算法的开发,给我的感觉是比较随意,而且可以很轻松的引用第三方模块,上手是比较快的,话说我这边学过不少语言,当然很多只是皮毛,但python给我的感受还是比较强烈的,可以做很多好玩的东西,不过如果做大型的开发的话,还是推荐用c/c++或者java。

这边呢,主要就是简单说下概念性的东西,可当作科普文,毕竟当下这个大的环境下,特别是谷歌的AlphaGofacebook的聊天机器人风头正盛,家喻户晓的时候,我们也能随便和别人聊点是吧。有人可能对facebook聊天机器人不是很熟,他呢,成名于在两个机器人对话的时候,突然间创造出了自己的语言,emmm,当时还是引起了一阵骚动,官方说已经停止研究了,不过具体谁知道呢。

接下来进入正题,首先说下这个大体的这个发展流程,人工智能最先与1965年由几个科学家在达特茅斯会议第一次被提出,目的呢,是希望用计算机来构造拥有与人类智慧同样特性的机器,下图是这个人工智能的发展史:

接下来分别介绍下几个关键性的概念术语,人工智能,机器学习,深度学习。

1 人工智能:

       发展条件:

1)硬件发展:AI 不断爆发热潮,是与基础设施的进步和科技的更新分不开的,从 70 年代 personal 计算机的兴起到 2010 GPU、异构计算等硬件设施的发展,都为人工智能复兴奠定了基础。

2) 数据发展:互联网及移动互联网的发展也带来了一系列数据能力,使人工智能能力得以提高。并且随着物联网的兴起,传感器的普及,数据是十分大的,最近大数据,云计算的发展也是推进人工智能发展的因素,后面介绍一些算法就知道数据的重要性了。

3) 运算发展:计算机的运算能力从传统的以 CPU 为主导到以 GPU 为主导,这对 AI 有很大变革。

4) 算法发展:算法技术的更新助力于人工智能的兴起,最早期的算法一般是传统的统计算法,如 80 年代的神经网络,90 年代的浅层,2000 年左右的 SBMBoostingconvex methods 等等。随着数据量增大,计算能力变强,深度学习的影响也越来越大。尤其是2011 年之后,深度学习的兴起,带动了现今人工智能发展的高潮。

2 机器学习

       机器学习是个什么呢,简单的说是一种实现人工智能的方法,简称ML(machine learning),是一门多领域交叉学科,涉及概率论,统计学,逼近论,凸分析,算法复杂度理论等多门学科。作为当年概率论和高数课基本都不听的人来说,这些有点难搞,不过看下去,你还是有信心的。机器学习是人工智能的核心,是计算机具有智能的根本途径,它主要是进行归纳和综合,而不是演绎。基本就是使用算法来解析数据,从中学习,从而对真实世界中的事件做出决策和预测。对的,其实就是用大量数据去“训练”,通过各种算法从数据中学习如何完成任务。

       机器学习有三类;

1)    无监督学习:指的是从信息中自动寻找规律,并将其分成各种类别,也称“聚类问题”。

2)    监督学习:监督学习指的是给历史一个标签,运用模型预测结果。如有一个水果,我们根据水果的形状和颜色去判断到底是香蕉和苹果

3)    强化学习,是指可以用来支持人们去做决策和规划的一个学习方式,它是对人的一些动作,行为产生奖励的回馈机制,通过这个回馈机制促进学习,这是与人类的学习相似,

 

       3深度学习

              是一种实现机器学习的技术,有些人可能容易搞不清机器学习和深度学习之间的区别。机器学习是指计算机的算法能够像人一样,丛数据中找到信息,从而学习一些规律。虽然深度学习是机器学习的一种,但是深度学习是利用深度的神经网络,将模型处理的更为复杂,从而使模型对数据的理解更加深入。

深度学习是机器学习中一种基于对数据进行表征学习的方法。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。

同机器学习方法一样,深度机器学习方法也有监督学习与无监督学习之分.不同的学习框架下建立的学习模型很是不同.例如,卷积神经网络(Convolutional neural networks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(Deep Belief Nets,简称DBNs)就是一种无监督学习下的机器学习模型。

 

4、人工神经网络:一种机器学习的算法

人工神经网络(Artificial Neural Networks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。

例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第三层,以此类推,直到最后一层,然后生成结果。

每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。

我们以停止(Stop)标志牌为例,将一个停止标志牌图像的所有元素都打碎,然后用神经元进行检查:八边形的外形、消防车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量

回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。

只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(AndrewNg)教授在Google实现了神经网络学习到猫的样子等等。

吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。吴教授为深度学习(deeplearning)加入了深度deep)。这里的深度就是说神经网络中众多的层。

现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。GoogleAlphaGo先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。

Emmm,先到这,上面的有很多都是直接在网上抄的,毕竟是初学者,之后会学习一些框架,比如google 的tensorflow或者caffe,cnn(卷积神经网络)等,搞个实例跑一下,训练一些模型,应该会比较刺激,正好可以加深下python知识。

摘选自http://www.cnbruce.com/blog/showlog.asp?cat_id=37&log_id=1422

猜你喜欢

转载自blog.csdn.net/pickers/article/details/79272882