不会思考“为什么”的人工智能都是假的人工智能

  一个多世纪以来,科学家们大都信奉一句话,叫“相关不是因果”,特别是基于大数据和机器学习的AI兴起之后,很多人都说“有相关关系就够了”。比如说,根据大数据分析,当某个地方受到台风灾害的时候,那里的沃尔玛商店卖的一种草莓馅饼干的销量就会大增。这是为什么呢?我们不用知道,只要知道有这个信息就够了,你看天气预报说台风要登陆,那就多给草莓馅饼干备货,何必问这是为什么呢?

  因果关系说起来复杂,有一段漫长的历史争论,但却又具体到我们每个人的生活中。那什么是因果关系呢?比如,吸烟有害健康,会导致患肺癌的风险。这句话现在人人都相信,但是在几十年之前,很多统计学家认为,“抽烟能导致肺癌吗?”这类的问题,根本就不应该问,因为他们认为,事情只要达到了一定的复杂程度,谈论因果就是徒劳的,一切都是因为相关性。但在过去的30年里,以珀尔为代表的学者们,一直致力于因果关系的科学研究,并且取得了重要的突破。这本书可以说是珀尔向世人做的一次集中学术汇报,向我们介绍这门新科学。这本书是珀尔和他的团队的共同研究成果,书里有非常多的数学和统计学模型,理解起来有一定难度,但我们没必要去深挖这些模型,只要理解他的思想就足以刷新我们认识世界的逻辑。

  这本书的内容如此的颠覆,你一定很好奇它的作者朱迪亚·珀尔是何方神圣。

  作者简介

  前面说过,珀尔教授是人工智能领域大名鼎鼎的意见领袖,现任现加州大学洛杉矶分校计算机科学教授,“贝叶斯网络”之父,这个贝叶斯网络是目前机器学习应用最多的技术之一,他也因此被认为是机器学习技术的开山鼻祖,有趣的是,他同时也是这种技术最激进的批评者。珀尔有一句名言,“数据是极度愚蠢的。”他要做的就是让AI学会因果思维,真正明白自己在干什么。

  全文大纲

  为了阐述因果推断的具体内容,接下来,我就从以下三个部分来为你解读这本书。

  首先,我们要明白,为什么要问“为什么”?这也是我们理解因果思维的基础;

  其次,我们要花一点时间来解释什么是因果思维的三级阶梯,在作者看来,这个阶梯正是掌握因果关系模型的基石,而重要的是不断地沿着阶梯向上攀爬。这套因果关系模型的应用非常广泛,涉及各领域学科,但是影响最大的,还是人工智能领域。

  第三部分,我们就来看看,在因果思维模式下,人工智能的未来是怎样的。

  01

  我们为什么要问“为什么”

  在上小学的时候,老师经常跟我们说不光要“知其然”,还要“知其所以然。”只会做一件事还不够,我们需要知道为什么要做这件事,也就是“为什么”。比如,你对现在的工作不满意,想要跳槽,但是你有一些纠结,到底是你现在的公司不行,还是你自己的处事能力不行?生活中,类似这样的问题还有很多。为什么结果是这样的,我们想知道事情的原委。回答“为什么”,就是要找到一个因果关系,我们可以用A导致了B。找到因果关系,才能理解一件事究竟是怎么回事儿,才能知道应该采取怎样的应对措施。

  但是你可能会有疑问,既然因果思维这么重要?为什么会被主流的科学界抛弃呢?这就要说到与因果关系对应的另一对关系,也就是相关性。

  我们前面说过,早在一百年以前,就有统计学家相信,科学的世界里根本没有什么因果。不要问为什么,所有知识都是相关性的,人的一切行为都是基于经验的。你有没有发现,物理中的定律就是在描述一种相关关系。比如质量越大,惯性越大。但是为什么质量的变化会引起惯性的变化呢?我们一般都不是很在意。这种认知其实都源于统计学领域的一次革命。

  1877年,达尔文的表弟,统计学家高尔顿利用自制的“高尔顿板”向大家展示了他的发现:回归平均现象。打个比方来说,父亲的身高在父辈中比较高,比如在前10%,孩子的身高会相对较高,但是可能会在前20%甚至更低,这种现象其实就在说明,孩子的身高会逐渐向平均身高“回归”。回归现象的背后,是父亲和孩子的身高呈现某种关联性,这种关联性就被称为相关性。但由相关性建立的一套思考体系有说不通的地方。珀尔书中举了个简单的例子:一个国家的巧克力销量和该国获得诺贝尔奖的人数呈高度正相关。那么问题来了,难道增加巧克力销量就能增加科学家们获得诺贝尔奖的人数吗?这样的推断显然这是荒谬的。为了解决这个问题,统计学家们找到了一条出路,叫做混淆变量。举例来说,一个国家巧克力销量和诺贝尔奖获奖人数之间之所以存在相关性,可能是夹杂了该国家经济发展水平这个混淆变量。经济发展水平高的国家自然巧克力销量大一些,而该国的科学家更有可能获得诺贝尔奖。所以这个混淆变量才是问题的关键。

  不知道你有没有听出什么问题?统计学家们将巧克力销量上涨的原因归为经济发展水平。这不就是我们刚才说的A导致B的因果关系吗?我们在解释一个现象的时候,虽然我们可能无法用纯粹理性定义它,但无形之中,还是会用到因果关系。

  既然我们总是绕不开“为什么”,总是要去思考事物背后的因果关系,那么在第二部分,我们就来看看珀尔总结的掌握因果思维模式的三个层级。

  02

  掌握因果思维模式的三个层级

  因果思维的三个层级,分别是观察、干预和想象。我们先来说观察。

  观察,就是通过数据分析做出预测,它处在因果思维的最下层。比如:人们在头痛之后,根据网络上搜集的信息,大多数人通过吃阿司匹林来缓解头痛;下雨会把衣服淋湿,所以再次下雨就要打伞,这就是观察思维。观察是寻找变量之间的相关性,就是积累经验。

  所有动物都有观察的能力。观察思维已经能解决很多问题,但是远远不够。

  中间层叫做干预。顾名思义,就是通过做某种试验再对数据进行补充和加工,在试验前就会提出一些假设,比如:如果吃了阿司匹林,头痛会好吗?“A/B测试”,又叫灰度测试。是互联网公司在产品测试时候经常采用的方法。比如,看看哪个标题能吸引更多点击,什么颜色的网页能让用户停留时间更长,都是用分组测试的方法。其实,干预思维是我们工作和生活中一直使用的方法论工具。文章的点击量不高,换个标题或者拓宽一下渠道,但是干预的结果到底怎么样,我们还需要第三层的思维。

  这最高层就是想象,是对过去发生的事情的反思。在这一层,就需要一些想象力了,我们需要考虑那些没有发生的事情会产生什么样的结果,比如:是阿司匹林治好了我的头痛吗?比如,你可能经常会说,如果我当初听了他的话,现在就不会这样了。你想象的是一件从来没有发生过的事情,所以也叫反事实分析。作者在书中还援引了尤瓦尔·赫拉利在《人类简史》中的观点,智人群体中,曾经发生过一次认知革命,我们具备了想象不存在的事物的能力。关于《人类简史》的其他内容,你可以出门左转,中信书院有对这本书的详细解读。

  以这个因果阶梯为基础,作者提出了自己的看法。无论如今大数据和人工智能的概念有多么火爆,计算机的能力目前只能停留在因果阶梯的最底层,也就是观察。简单来说,现在利用计算机可以在我们头痛时,迅速地获得大多数人在吃阿司匹林的信息。但是无法通过这样的数据与信息明白阿司匹林为什么能治好头痛,也无法得知作为个体吃了阿司匹林是否能缓解头痛的症状。现在所有实用AI技术都是基于这个第一级思维。AlphaGo下围棋,并不是它理解这步棋有什么用,它只不过知道走这步赢棋的概率会更大。珀尔教授要做的就是帮助计算机从最底层沿着阶梯一步步向上爬。

  这就是第二部分的全部内容。接下来,第三部分,我们再来说说利用因果思维模型,人工智能的发展将会是怎样的。

  03

  人工智能的发展将会是怎样的

  在第二部分中,我们说过,因果思维是观察、干预和想象的过程,这是一种很主观的过程。我们想象中的人工智能其实是希望计算机具备这种主观的思考方法,能够自发的进行运算和处理,简单点说,就是希望计算机拥有自由意志。

  自由意志的感觉到底有什么用呢?珀尔的看法是它首先有利于交流。

  有自由意志,才谈得上有“动机”,而动机提供了对行为的解释。我有自由意志,在众多的选项中我先选择了这个动机,然后才谈得上据此去做理性的说服。价值观总是在方法论之前,你总要先知道自己想要什么,再用理性研究怎么做。然后你还可以使用反事实分析,说我当时如果克制了那个愿望,也许现在会有更好的结果。

  珀尔还特意举了一个踢足球的例子。阿根廷队比赛结束之后,教练跟梅西说,当时那个情况你不应该把球传给迪玛利亚,你应该给阿圭罗。这句话就已经假定了梅西有自由意志。教练和梅西都明白这么做是为了赢球,赢球的动机不变,现在只是要做个小调整,为了获得更好的进攻机会。短短一句话背后有太多心照不宣的默认动机。

  可是如果假定梅西没有自由意志,你要表达这么一个意思就非常困难。教练需要调用梅西的整个软件系统,把当时场上的情况、以及所有类似的情况的优先级赋值都调整一遍。教练会感到很麻烦,梅西会变得一脸茫然。

  所以珀尔说,从交流的效率考虑,如果将来要搞一支机器人足球队,这些机器人最好有自由意志的幻觉。自由意志会让他们的表现更好。

  更重要的是人跟AI的交流。就算AI可以使用一种特别复杂的机器语言互相对话、不需要有自由意志,但是人需要啊。当一个人跟AI说话的时候,他还是假定AI有自由意志。AI需要自由意志的幻觉才能理解人的意图。那怎样才算有自由意志呢?

  对人来说,自由意志的好处不仅仅是交流。时刻提醒一下自己有自由意志,可以让我们做出更好的选择。

  比如说有个烟民,抽烟已经形成习惯了。如果他在毫无意识的情况下,从口袋里掏出烟就抽,那我们可以说他在这件事儿上没有表现出自由意志。他是抽烟的机器,他是烟瘾的奴隶。但是如果这个人把烟拿出来之后,突然停顿了一下,意识到自己现在有个“想抽烟”的动机,他就开启了自由意志。他马上就可以反思这个动机!他可以想到,如果我现在不抽烟,改成吃个苹果,会不会有更好的结果呢?

  珀尔据此提出了一个标准。如果一个AI知道自己当前的动机是要做一件事,同时它能评估一下,说如果换一个选择,做另一件事,结果会不会更好,那我们就可以认为这个AI有自由意志。

  人在行事过程中如果能表现出自由意志,他就能够独立自主、他就能自己控制自己,他就值得尊敬。AI如果有自由意志,它就可以算得上是“强AI”。珀尔说,目前还没有任何一个AI程序有这样的功能。

  那怎么才能让AI有自由意志呢?它需要具备三个特点。

  首先,它需要一个关于世界的因果模型。比如你家有个扫地机器人。有一天晚上你正在睡觉的时候,这个机器人想要打扫房间,它拿着吸尘器就开始扫地,把你给吵醒了,你想让他安静点。这个机器人需要有个因果模型才能理解你这句话。它得知道扫地会导致噪音,噪音会吵醒你,吵醒你会让你不高兴。

  它还得会干预分析和反事实分析。它得知道虽然你说了这句话,但是白天它还是可以扫地。它得知道晚上你要是不在家,它可以扫地。它得知道如果这个吸尘器是绝对静音的,你就算在睡觉它也可以扫地。只有因果模型才能帮它做出这些灵活的处置。

  第二,它需要把自己也当成环境的一部分,考虑自己跟环境的因果互动。一个有意思的论断是机器人永远都无法100%预测自己的行为。因为你要精确预测自己的行为,就得把自己的程序跑一遍,可是你本来就已经在跑自己的程序啊!你不可能开一个子进程,这个子进程里又包括了全部的你,否则就是无限循环。所以AI需要一个关于自己的因果关系模型。他对自己的行为特点、对自己的动机会产生什么结果有一个基本的蓝图,这样它才能把自己和环境综合考虑。

  第三,它还需要一个记忆系统。他得知道自己以前的那些动机都导致了什么样的后果,这样他才能从错误中学习,他才能对自己的行动负责,也就是反思的能力。

  好了,到这里,这本书的重点内容就为你分享的差不多了,现在来总结一下。过去三十年间,学术界爆发了一场关于因果思维的革命。第一部分,我们知道了为什么要问“为什么”。问“为什么”的能力,是我们与生俱来思考问题的能力,但是在相关关系思维的影响下,因果思维被掩藏了起来。第二部分,我们介绍了介绍了有关因果关系的科学,对于观察、干预和想象这三种因果思维层级。第三部分,我们讨论了在因果思维研究下,人工智能的发展方向。

  大连妇科检查多少钱 mobile.62671288.com

猜你喜欢

转载自blog.csdn.net/fadsf15/article/details/94448271