当AI群星闪耀时

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/IamThinker2011/article/details/83478690

原创:张天奇 & wk Refinitiv创新实验室

 

我们首篇文章向大家介绍了机器学习的一些基本常识,但是很多好学的同学们看了以后嗷嗷直叫不过瘾,为了满足同学们强烈的求知欲,因此我们推出了基本常识的续集—当AI群星闪耀时


 

记得《三体》里有个将宇宙飞船加速到十分之一光速的解决方案:在渺茫的宇宙空中,每隔一段距离就放置一个核弹,飞船靠辐射帆推动,每经过一个核弹,核弹就发生爆炸,靠着核弹爆炸的辐射推动,飞船因此逐渐加速。 而这个场景,跟我们要讲述的历史何等的相似。 如果我们将人类的历史,无论是经济,政治,文化,还是科技都比作这艘飞船,那么,推动我们历史前进的核弹就是那些光辉璀璨的伟人们。今天,我们要讲述的机器学习史,将沿着时间的脉络,寻觅那些曾经的人,那些曾经的事,那些永恒的光辉和伟岸。

机器学习简史(图片来源: Brief History of Machine Learning)

 

神经学往事

神经学是心理学的一个分支,在神经学的众多大神的努力之下,对于人类神经工作模式的探索已经经历了几百年,对神经的工作原理也有了深刻的理解,而这一切,都为后来的神经网络打下了良好的基础。这也是一段十分伟大的历史,感兴趣的同学们可以读读《脑机穿越》,《连接组》等科普著作,享受这段神奇历史。而这,也是我们所讲的AI的导火索中那长长的一段。而后,计算机巨匠的介入,生物学和计算机学,数学的融入,AI进入了属于它的时代。

 

1950年 美国

38岁的图灵已经是曼切斯特大学计算实验室的副院长,在过去的岁月中,他以其敏锐的头脑在数学,密码学,计算机学上披荆斩棘,建立了非凡的成就。而这年,图灵稍稍的思考了一下他对计算机的一些理解,整理成《计算机与智能》《机器能思考么》两篇文章,提出了人工智能界无人不知的图灵测试,从此,计算机界潮水涌动,AI正式被人们所观察和认识,踏上了它的发展之旅。 而我们的英雄却三年后早早离开,未能见证它的繁华。

阿兰 图灵

 

1957年 美国

康奈尔大学的实验心理学家弗兰克·罗森布拉特在一台那个时候的IBM巨型机上跑了一个叫做“感知机”(Perceptron)的神经网络模型。这个模型当时在科学界引起了巨大的轰动。因为计算机冒出来以后,对于计算机能做的事情,人们一直心存敬畏,而这个老头竟然告诉大家,计算机可以模拟大脑,于是当时人们接近奔溃的疯狂也可以理解(你看看跟我们现在的情形不也一样么)。但这是一个英雄辈出的年代,罗森布拉特遇到了同时代AI的另外一位奠基人明斯基(Marvin Minsky)的质疑, 神经网络原本在布拉特的感知机模型下前途一片光明,明斯基却给他们浇了一大盆冰水,十多年后,明斯基证明感知机不能模拟简单的XOR异或函数,加之政府的长期投入却丝毫没有成果,于是神经网络跌下神坛,不再被人提及,直至Webbos解决XOR问题,提出BP算法。罗森布本人在1971年据说投湖自尽,而他的老对手在2016年见证了AI的再次辉煌之后,才离开人间。

弗兰克·罗森布拉特

 

1959年 美国

IBM工作的科学家Arthur Samuel闲来无事,编写了一个游戏。这是一个跳棋游戏,但也远非这么简单,游戏程序中内置了一套算法,可以通过观察当前棋子的位置来判断胜率。游戏程序还可以记录下所有它见过的棋谱。在后来的发展里,ArthurSamuel向它输入职业选手的对局,并且让游戏程序自身与自身对决来增加它的棋艺。通过这个游戏程序,Arthur Samuel提出了机器学习的概念,并将它定义为“可以提供计算机能力而无需显式编程的研究领域”。

Arthur Samuel


 

1969年 美国

马文明斯基,罗森布拉特的老对手,这个时候气候已成。1956年时,他便与香农和麦卡锡一起发起了达特茅斯会议,1958年,也就是他从哈佛毕业的第四年,明斯基从哈佛转到MIT,成立了世界上第一个人工智能实验室,顶上了人工智能之父的光环。而1969这年,他发表了那本惊世骇俗的《感知机:计算几何学》一书,指出了感知机中不能实现的不足,提出了两个对于机器学习要解决的两个基本论点:

(1) 只能解决线性问题的算法是不够的, 需要能够解决非线性问题的算法。

(2) 只能解决理论世界问题的算法是没有意义的, 需要能够解决实际世界问题的算法。

 

同时,他也拿到了那项计算机界的诺贝尔奖--图灵奖,成立了自己的人工智能公司。一切都那么完美,只是,顶峰之后便是低谷。人们对于人工智能有的极高的期望,而计算机的算力还远远不足以满足人们的期望,人工智能的研究从这年开始,进入了十多年的低潮期。一直到 1986年,Rumelhart等人的BP 算法解决了XOR 问题, 沉寂近二十年的感知机研究方向重新获得认可,  神经网络和AI才重获学术界关注。

马文 明斯基

 

1986年  美国

这个时候,第一届由卡梅隆大学召开的机器学习国际研讨会已经召开了有6年,机器学习再次复兴。韦伯斯的反向传播算法(BP)算法提出也有五年,大家开始尝试着把BP算法和MLP算法结合起来,黑盒的神经网络再次浮出水面。而此时,最引人注目的还是Quinlan(罗斯.昆兰)提出的ID3决策树算法。当然,十大算法之列的KNN已在1967年就已发明,而ID3决策树算法是继KNN之后,近似大脑思维而又清晰可解释的一种算法。昆兰在2011年获得了数据挖掘领域最高荣誉奖KDD创新奖,功成名就。

罗斯 昆兰(图片来源: 李航,机器学习史)
 

1990年 美国

这个时候的计算机科学家Robert Schapire  还没有从MIT博士毕业,但次年,他将会因为他的 Boosting算法闻名遐迩。Yoav Freund 修改并提粗了更高效的boosting算法。五年之后的他们又一起提出了Adaboost算法,相比之前的Boosting算法,这种算法不需要弱分类器的先验知识,应用更加方便。现在Schapire 还在微软研究院担任资深科学家,机器学习之路还在继续。

Robert Schapire

 

1995年 俄罗斯

Vladimir Vapnik 在数学天才众多的俄罗斯崭露头角,作为统计学博士的他提出了目前工程界应用最广的机器学习方法SVM支持向量机。SVM的高效性能并且在神经网络无法取得较好效果的领域的优异表现,此外,支持向量机能够利用所有的先验知识做凸优化选择,产生准确的理论和核模型。因此,它可以对不同的学科产生大的推动,产生非常高效的理论和实践改善。这种特征为它获取了一大波的粉丝,为此机器学习社区还差点因此分道扬镳,神经网络和SVM 闹的沸沸扬扬。值得一提的是,Vapnik在2006年投身美国,在美国继续自己的统计学事业。所以,不得不感叹,美国依然是科技工作者的圣地。

Vladimir Vapnik

 

2006年  美国

前人的努力,终于在深度学习教父级人物Hinton的坚持下迎来了胜利的曙光。 Deep Learning 在这年由Hinton提出,他和他的学生在科学杂志上发表了一篇深度学习的文章,阐述了两个观点: 1 深度学习更好的识别特征,准确率更高,应用性更强。 2  逐层训练,使深度学习的模型训练难度降低,容易操作。从此, Deep Learning 在工业界和学术界激起有一股机器学习的狂潮。Hinton 本人的经历也很值得回味,出生于英国的一个精英世家,大学退学做木匠,而后又重返学术界,在所有人抛弃神经网络的时代,就靠自己对神经网络的信念,支撑了二十年,就像飘落孤岛的鲁宾逊,直到命运的船只最终选择在他的孤岛上靠岸。而且, Hinton 拒绝AI用于军事,在发现大部分AI项目都由军方资助之后,毅然决然的前往多伦多,不再接受由军方资助的项目。 Hinton 后来注册了两个AI公司,被谷歌收购,在2012年时,谷歌大脑项目成功的在海量信息中自动提取数据,自己学习到了猫的概念,从此震惊世人。

Hinton

 

2010-现在 全球

这是AI大爆发的时代:
 

2012年,Hinton的深度学信模型AlexNet在ImageNet大赛中夺冠,同年,吴恩达和Jeff Dean领导的深度神经网络把ImagNet的错误识别率从26% 降低到15%.

 

2014年,Facebook的DeepFace项目 将人脸识别率提高到97%,从此以后,AI开始超越人类的认知能力。

 

2016年3月15日,韩国首尔,李世石登上棋坛,与AlphaGo进行这场载入历史对决的最终局,昨天他通过“神之一手”扳回一局,很可惜,今天他输了。斗士怀揣着掌声与敬意黯然离场,然而不管是李世石本人,还是观念被震动的普通人,他们或许不知道在昨天那个或难熬,或静谧的夜晚里,AlpahGo又和自己下了一百万盘棋。

假想中的机器人

 

展望

远瞻未来,或许人类将智慧转移到AI之后,AI将重新定义智能。 未来又是什么样? 我们大胆前行,拭目以待~ 

如果你看到如此的历史内心波涛澎湃,斗志四起,欢迎关注我们的公众号,我们一起探索发现,创造未来!

 

 

猜你喜欢

转载自blog.csdn.net/IamThinker2011/article/details/83478690