天文学家对外星文明的分类如何指导我们探索AI?

全文共2310字,预计学习时长6分钟

图源:unsplash

笔者最近读了许多带有恐怖色彩的科幻类作品,偶然发现的一位名为尼古拉·卡尔达舍夫的前苏联和俄罗斯的天体物理学家,同时他也是SETI(搜寻地外文明)领域的先驱,去年刚刚去世。

在漫长而多彩的职业生涯中,卡尔达舍夫曾因许多事情而闻名于世,但其中最突出的是他根据可使用和储存能量的数量级对外星文明的技术先进等级进行划分的方法,这就是著名的卡尔达舍夫等级。总共包括三个级别,并通过不同数量级进行扩展:

· Ⅰ型文明(相对接近地球文明),也被称作母星文明,可以捕捉和利用其星球上的所有可用能源。

· Ⅱ型文明,也被称为行星文明,能捕捉和利用其行星系统内和围绕其运行的恒星的所有可用能量。

· Ⅲ型文明,也被叫做恒星文明,可以从整个宿主星系中获取并利用所有可用能量。

星系间空间旅行

对技术兴趣浓厚的人应该会对此感到熟悉,对因为这样的分类形式与人工智能的分类方式非常相近:按照实力,人工智能可以分为弱人工智能(Artificial Narrow Intelligence,简称ANI)、强人工智能(Artificial General Intelligence简称AGI)、超人工智能(Artificial Super intelligence简称ASI)三个等级。

狭义人工智能,又称弱人工智能,这是迄今为止人类唯一能够创建的人工智能类型。它以目标为导向,旨在执行特定的任务,只是基于有限的参数和情境来模拟人类的行为。互联网搜索引擎、无人机、聊天机器人、自动驾驶汽车、Alexa、Siri和Cortana等语音助手以及颇受争议的面部识别系统中使用的都是这一类人工智能。

通用人工智能,也被称为深度人工智能或强人工智能,目前人类还未掌握此技术。对于何时会发展到这个水平,人们的见解不一,有人认为这是完全不可能的。如果我们真的达到了AGI的阶段,这种技术将能够复制人类水平的智能和行为,能解决任何问题。

超级人工智能,这是一种理论上的人工智能形式,一旦被创造出来,它不会只是简单地复制人类水平的智能和行为,而是发展出自我意识,不断地自我完善,总有一天它将在各方面超越人类。

这就是我们在《终结者》和《2001:太空漫游》等想想未来的科幻电影中看到的人工智能,它的目标与人类的目标相悖,所以它们除了搞垮我们,别无选择。

《2001:太空漫游》

相信现在你也了解了,虽然我们还没有完全成为Ⅰ型文明,但人类已经成功实现了ANI——这就是卡尔达舍夫等级和大类人工智能的不同之处。即便如此,这种比较还是很有意思的。毕竟,二者本质上都在探究我们这个物种在未来各个节点可能获得的能力。

不过,如果我说太空人在太阳系之间飞穿梭没有机器人在我们眼前穿梭而过吸引人,那是在撒谎。

如果我们把卡尔达舍夫等级与人工智能放在一起研究,想想Ⅰ型文明、Ⅱ型文明和Ⅲ型文明之间的巨大飞跃,这有助于把人工智能的发展引导到正确的方向上来。换句话说,我们要从ANI到AGI,再到ASI,可能还需要很长的时间。

当然,卡尔达舍夫等级之间的飞跃很可能比人工智能进化阶段之间的飞跃大得多,前者可能是以千年或百万年为单位。但卡尔达舍夫等级确实可以给我们一些关于围绕AI的长期思考的启示。

我相信,如果人工智能的研究人员和科学家们不受任何限制地发展人工智能,那么总有一天,他们的作品会超越人类。并且我完全同意埃隆·马斯克最近讲的一句话:那些拒绝接受这种可能性的人,“比他们认为的要愚蠢的多”。

埃隆·马斯克提醒人类,人工智能将超越

这就是为什么在我提出人类需要为所有可能会发生的事情进行规划,即使这些事情可能数百年之后才会发生。

我们在进行规划的时候要秉持脚踏实地的原则,比如通过人工智能管理程序来采取务实的预防措施,禁止开发和使用目标与人类目标不一致的人工智能(而不是像科幻小说中所描绘出的未来的机器人那样),欧盟目前就在沿着这条路前进。

但是我的意思并不是要人类实施埃隆·马斯克脑中的那种会让全人类都成为太空旅人的激进规划。SpaceX的创始人和CEO目前正在全力推进他所设想出来的宏伟计划,为人类未来逃离地球移民火星做准备,一旦人工智能颠覆人类,就可以立即开启他的计划。

事实上,如果能提早有更多实际的措施,埃隆·马斯克的战略就毫无必要,但是如果SpaceX真的继续实施其计划,并且最终实现目标,那么这将使我们离成为Ⅱ型文明更进一步。

而如果我们离开地球,前往火星,不会是因为我们对于星际度假的热爱,而是因为我们要为我们所创造的对人类抱有敌意的人工智能付出代价,这样一来,促进卡尔达舍夫等级进程的,就是人类的愚蠢和傲慢了。

埃隆·马斯克抱着移民火星的愿景

不过,反正如今我们在地球上生活时所面临的大部分问题都是源自人类的愚蠢和傲慢,所以这也并不奇怪。

也许我们有生之年可以见证ANI到AGI的转变,但我们很可能永远无法看到从Ⅰ型文明到Ⅱ型文明的转变。很多人认为只有我们达到了Ⅱ型文明之后我们才能发明出AGI和ASI,但是这二者的因果关系我们尚未可知。

一起分享AI学习与发展的干货

欢迎关注全平台AI垂类自媒体 “读芯术”

(添加小编微信:dxsxbb,加入读者圈,一起讨论最新鲜的人工智能科技哦~)

猜你喜欢

转载自blog.csdn.net/duxinshuxiaobian/article/details/108435000
今日推荐