为AI注入一缕意识:构建更智能、更强大的神经网络

全文共2848字,预计学习时长8分钟

图源:unsplash

1998年,日本索尼计算机科学实验室的一名工程师拍摄了一台机器人在围栏里不知所措地到处跑的情景。机器人有两个任务:避开障碍并在围栏中找到特定物品,它通过了解场地布局和目标物体的位置来完成任务。

但是,每当机器人遇到超预期的障碍时,有趣的现象就出现了:它的认知过程一时变得混乱起来。机器人努力应付和它对围栏的预测不一致的新数据。

设立该实验的研究人员解释道,在不一致的情况下,机器人出现了“自我意识”。相比于像往常那样运行,机器人必须将注意力转移到内部——可以说,它在决定如何处理冲突。

(工程艺术公司(Engineered Arts)的假肢专家迈克·汉弗莱(Mike Humphrey)正在检查弗瑞德(Fred)。Fred是用Penryn处理器制作的生物力学“梅斯梅尔(Mesmer)”机器人,于2018年5月9日在位于英格兰康沃尔的公司总部制造完毕。| 图源:Getty Images)

关于自我认知(在特定情况下发挥效用,比如当我们接收到不得不重新评估所处环境并作出如何执行下一步的决定时)的想法渊源已久,最早出现在20世纪初期德国哲学家马丁·海德格尔(MartinHeidegger)的作品中。现在,越来越多的AI研究专家受到神经科学的影响,正在琢磨神经网络是否可以并应该达到与人脑相当的高水平认知。

当下,我们早就不关注那些“愚蠢”的机器人了——它们对自己究竟在哪或在做什么毫无概念。我们希望,与人脑认知水平类似的意识能让未来的AI更加智能。这样的AI可以自我学习,比如,如何选择并重点关注数据以获取可掌握并能轻松使用的新技能。

然而,赋予机器这类思考能力同样带来了风险及道德上的不确定性。

谷淳(Jun Tani)是1998年试验的共同设计者、博士、现冲绳技术大学认知神经机器人研究室教授。他说:“我不设计认知”,他认为要用比喻的说法才能描述其机器人的“认知”行为,即机器人实际不会有人类认可的认知方式,它们不过是展示结构上类似的行为罢了。并且,他对机器思维及人类思维的相似性有着极高的兴趣,甚至尝试用机器人模拟自闭症相关的神经反应。

世界最著名的AI专家、魁北克人工智能机构Mila 的创始人约书亚·本吉奥(YoshuaBengio)同样痴迷于对AI认知的研究。他用驾驶类比认知和非认知行为的转变。

他在邮件中解释道:“一开始,你刚学会如何开车,这时是认知控制。在有了一些驾驶经验后,大多数驾驶行为都是在无意识层面进行,你可以边开车边聊天。”

图源:unsplash

更高级的专注处理水平并非总是必要的,甚至也不总是十分理想的。但是对于人类来说,学习新技能或适应突发的挑战似乎至关重要。只有能获取与人类相同的划分优先级、集中注意力及解决问题的能力,AI系统和机器人才有可能避免当前困扰它们的愚蠢行径。

本吉奥及其同事在一定程度上受到我们对人类意识认识的启发,用了几年时间研究AI系统的“注意力机制”原则。这些系统能学习哪些数据是相关的,从而知道应该关注哪些内容才能完成给定任务。

本吉奥补充道:“在AI领域,研究认知仍披有禁忌色彩。”他认为,认知是个十分难以理解的理论,即便对神经科学家也是如此,讨论认知形态的主力军至今仍是哲学家。

有关人脑及人类认知体验的知识与追求更先进的系统的相关性越来越高,并且已经带来了一些趣味无穷的交叉研究。以牛津大学计算神经科学和神经外科教授牛顿·霍华德(Newton Howard)的研究为例,受人脑启发,他和同事已经受人脑启发设计了一个操作系统。

相比于靠一种方式解决问题,该系统能选择最佳数据处理方式以完成任务——有点像人脑的不同部位处理各种信息。

霍华德也用一个系统做实验,该系统能从各种传感器及资源收集数据,以自动储备各类话题的知识。他说,“部署好系统后,它就像个孩子,对一切充满好奇。”

所有工作都零零散散地受到了目前对大脑了解的启迪,这些有望推动今天的AI走的更远。但是,有人质疑这或许不会帮我们进一步实现真正有意识的机器思维:在机身(或者芯片组)中有独立自主的“灵魂”,能够自主启动意识。

哲学家丹尼尔·丹尼特(Daniel Dennett)一生大部分时间都在思考认知到底为何物。他认为,机器不会快速发展到人类认知水平——五十年内都不会。他和其它专家已经指出,今天能做出的AI看起来似乎没有类似于反思或反思意识的行为,而这二者对认知而言不可或缺。

我们还在寻找有这些特性的系统,但也只有神经科学和AI研究的极大交叠才可能实现这一点。当下,认知还是科学的重大奥秘。哪怕科学家逐渐发现某些的神经连接与大脑有关,目前还是没人知道它们究竟与大脑内哪些活动有关。一些研究人员发现,脑电波似乎与认知的特定状态有关——清醒(如果你愿意的话)。

牛津大学计算机科学研究助理卡米洛·米盖尔·西诺莱利(Camilo Miguel Signorelli)认为,通过在机器中重复这类活动,我们或许能让机器体验认知思考。

他提到了电影《机械姬》(Ex Machina)中的机器人流动“湿体”大脑,这是一种基于凝胶的神经活动容器。电影中,奥斯卡·伊萨克(Oscar Isaac)饰演的角色创造了一个有认知的机器人。他解释说:“我必须摆脱电路,我需要一些可以在分子水平上进行排列和重新排列的东西。

西诺莱利说,“这会是个理想的实验模型”,因为流体的高塑化大脑可能得到配置,能体验认知活动带来的神经振荡,类似于我们看到的脑电波。必须要说明一下,这一点几乎是假想。但也提出了问题:完全不同的硬件对引发机器的认知(如同人类的体验)是否是必要的。

西诺莱利说,即便在未来的某天,我们成功证实计算机的确存在认知,或许也没能力掌控它。他补充道,“我们可能会创造出一种有人类认知能力的动物,但我们无法控制这种认知。”

就像一些人争辩的那样,这种行为会创造出一种十分危险、不可预测的AI。但是,哪怕是能被证明无害的认知机器还是会衍生出道德难题:机器觉得疼、绝望、十分混乱时该当如何?

图源:unsplash

安德拉·卢皮是剑桥大学的博士生,研究人脑活动及认知。他说:“我们得避免错误地给有认知的机器带来痛苦的风险。”

可能很多年后,我们才需要解决这类问题。但为了建造更强大的系统,AI研究越来越关注神经科学及认知研究。这些正在发生,如同认知本身一般,我们很难预测这在未来会帮助我们创造什么。

一起分享AI学习与发展的干货

欢迎关注全平台AI垂类自媒体 “读芯术”

(添加小编微信:dxsxbb,加入读者圈,一起讨论最新鲜的人工智能科技哦~)

猜你喜欢

转载自blog.csdn.net/duxinshuxiaobian/article/details/109014491
今日推荐