为何艾伦·图灵想让AI智能体故意犯错

https://www.toutiao.com/a6687082323881493004/

为何艾伦·图灵想让AI智能体故意犯错

人工智能的历史告诉我们:随着科技的进步,机器会越来越聪明,但却鲜少涉及人类在其中发挥的重要作用,包括怎么设计机器的原型,以及怎么训练它等等。

最近,IEEE Spectrum开了一个AI历史系列,主要探讨了AI史上人类的作用,例如发明家、思想家、工人或者工程师是如何创造出可以复制人类思想和行为(或者至少看似)的算法。

这个系列共有六个部分,本文是第三部分《人机共生的DARPA梦想家》。请戳这里阅读第一篇、第二篇、第三篇。

1950年,数字时代初期,艾伦·图灵发表了他最著名的文章“计算机器与智能”,并提出了一个问题,“机器可以思考吗?”

图灵并没有试图定义“机器”和“思考”,他描述了另一种来回答这个问题的防范。这个方法来自维多利亚式的客厅娱乐,称为模仿游戏。 游戏规则规定,不同房间的男女通过手写笔记与判定者沟通。判定者需要猜测谁是谁,游戏中因为男人会试图模仿女人,猜测的过程会变得复杂。

扫描二维码关注公众号,回复: 6119265 查看本文章

受此启发,图灵设计了一个思想实验,其中一个参赛者被计算机取代。如果这台计算机让判定者无法判断他是在与机器还是人交谈,图灵认为,那就可以合理地得出结论 – 这台机器是智能的。

为何艾伦·图灵想让AI智能体故意犯错

这个思想实验被称为图灵测试,直到今天,它仍然是人工智能中最著名和最具争议的想法之一。 该测试最吸引人的地方在于它为一个充满哲学意味的问题给出了一个明确的答案: “机器可以思考吗?” 如果计算机通过图灵测试,那么答案就是肯定的。

正如哲学家Daniel Dennetthas所写的那样,图灵测试被认为是一个哲学讨论的终结。 “不是无休止地争论思维的终极本质和要义,” Dennett写道,“我们无法否认,无论智能的本质如何,任何可以通过测试的东西就是智能体”

但仔细阅读图灵的论文会发现一个小细节,测试中引入了模糊性,这表明也许图灵更多想用它引发哲学讨论,而非用作实际测试。

在“计算机器和智能”的一个部分中,图灵用想象中的未来智能计算机模拟了测试的情景。 (人在问问题,电脑在回答。)

问:请给我写一篇关于Forth Bridge主题的十四行诗。

答:饶了我吧。我永远不会写诗。

问:把34957和70764相加。

答:(暂停约30秒然后给出答案)105621。

问:你下国际象棋吗?

答:是的。

问:我的K1上有K,没有其他棋子。你只有K在K6,以及R在R1。到你了,你怎么走这一步?

答:(暂停15秒后)R到R8,将军。

在对话中,计算机其实犯了一个算术错误,数字的总和应该是105721,而不是105621。图灵,一位出色的数学家,不太可能犯这种错误。这更有可能是抛给读者的一个彩蛋。

似乎图灵在文章的其他地方也有暗示,错误是一种编程技巧,一种愚弄判定者的手段。图灵明白,如果仔细阅读计算机的回答会发现错误,人们会认为这与人类吻合,因为预先假设了机器不会犯下这样基础的算术错误。图灵写道,一台机器可以被编程然后“在计算上故意引入错误以此来混淆提问者”。

在1950年,使用错误来暗示人类智慧的想法可能很难理解,但如今它已成为从事自然语言处理的程序员的练手题。 例如,据报道,2014年6月,一个名为Eugene Goostman的聊天机器人成为第一台通过图灵测试的计算机。但批评者很快指出Eugene只是因为内在的作弊而通过了测试:Eugene模拟了一个英语为第二语言的13岁男孩。这意味着他在句法和语法上的错误以及他有限的知识会被误认为天真和不成熟,而不是自然语言处理能力的缺陷。

为何艾伦·图灵想让AI智能体故意犯错

类似地,谷歌的语音助理系统Duplex,去年它人性化的加上了“嗯”和“啊”的语气词~引来了人们的赞叹。很多人指出这不是系统真正思考的结果,而是人工编码的犹豫,以模仿人类的认知。

这两个案例都符合图灵的想法,即可以设计计算机犯简单的错误,让人误以为这就是人类。 像图灵一样,Eugene Goostman和Duplex的程序员明白,人类容易犯错的表面幌子就足以欺骗我们。

也许图灵测试并不能真正评估机器是否智能,只是我们是否愿意接受该机器是否有智能的判断标准。正如图灵自己所说:“智能的概念本身就是情感而非数学。我们认为某物有智能行为的程度,既取决于所考虑对象的属性,也取决于我们的心态和受到的训练。”

也许智能不是可以编程到机器中的东西,图灵似乎是在这样暗示——而是通过社交互动构建的特质。

猜你喜欢

转载自blog.csdn.net/weixin_42137700/article/details/89838697