人类和强人工智能的关系

朋友们,如需转载请标明出处:http://blog.csdn.net/jiangjunshow

这篇文章不是为了给出答案(也给不出答案)或者猜想,而是希望总结一下各种影响因素。随着技术水平和认知的发展,人们会做出更准确的预测。从主观上,我更愿意相信强人工智能不会灭掉人类,这样我就可以心安理得的继续研究了。:)

首先,这里说的是“消灭”人类,不是和人的个体冲突,而是对整个人类的威胁。这是一个很大的问题,除了需要研究各种因素之外,还需要对整个过程进行研究。也许最终强人工智能会和人类很好的相处,但中间的某个阶段就把人类消灭了。

从研究未来的角度来看,科幻小说和电影是走到前面的,给我们提供了巨大的想象空间。在下面的推理和分析中也很容易找到类似场景和观点的科幻作品。比如,《三体》对动机和能力方面都涉及了(看起来低效的生物体才是战争的根源,强人工智能只是工具)。《终结者》系列,基本没涉及到动机,比较强调人类的能力(除了运气,实在没看出来人怎么赢)。还有《超验黑客》和《机器纪元》(不喜欢剧透的直接跳到下一段)从动机方面讲为什么强人工智能不消灭人类。比如:从人类上传的人工智能还是为人类考虑的、强人工智能不屑于消灭人类。

强人工智能是否会消灭人类的问题,要从动机和能力两方面来讨论。动机是强人工智能为什么要消灭人类。能力是强人工智能是否具备消灭人类的能力。估计大部分人都相信,最终强人工智能的能力会超过人类,有消灭人类的能力,所以下文也主要从动机方面来讨论。

特异功能

这一段是从强人工智能的能力来分析的。所谓特异功能,是人类没有的能力。假设强人工智能生存于非生物体中,如互联网、实体机器人、或者电子生物混合体,就能够跨域生物体的限制。比如高速的通讯(人的语言通信速度大概也就10字节每秒),高能源储备(人一天吃好几顿饭,几天不吃就不能动了),复制、修复成本低(人不能复制,治病成本高),极端条件下生存能力强(人类需要空气,对气压,温度适应范围都小),更广的通讯频率(人只能响应听力的机械,视力范围的电磁频率),进化快(人类需要数万年以上才能有显著的变化)等等。看上去是不是人类从配置上就完败了?也没那么惨,人类也有自己的优势,至少现在人类的意识还是黑盒的(虽然也有被黑、被洗脑的情况)、人口基数巨大、不会被强电磁辐射直接消灭等。

智能水平

这里说的智力水平是综合水平,不考虑某一方面的强弱。

如果强人工智能的智力水平相当于普通动物,且人类和强人工智能之间存在直接的资源冲突,如空间、能源等,则有可能直接产生冲突。这种情况下其对人类的冲击,取决于强人工智能是否具有独立的复制能力或者很强的生存能力。

如果强人工智能的智力水平相当于人类,则可以将其考虑为独立的人。如果和人类有资源冲突,也许会采用比较温和的方式进行交换或争夺。但如果其成为了极端分子,对人类的冲击会更大。

如果强人工智能的智力高于人类,我们可能已经无法预测其行为和倾向了。因为他的智力高于人类,对世界的认识、能力最终都会高于人类,我们无法预测其是否会产生消灭人类的意愿。

除了智力水平,还可从另一个方向来看。即强人工智能是否有自我意识,是否受人类控制。

假设强人工智能虽然能够解决很多问题了,但并没有自我意识,其仍然是人类所控制的。所以,通过阿西莫夫的机器人三定律,就能避免其伤害人类。但这个的前提是人们愿意将机器人三定律设定进强人工智能。考虑到现今社会的恐怖主义势力不可忽视,也许会有人制造出专门攻击人的强人工智能。这和其它武器类似,但考虑到强人工智能的特异功能等,其破坏性是远远大于普通武器的。

如果强人工智能拥有了独立的自我意识和价值观,问题就会更复杂了。

数量

一个、多个还是大量?也许这不是一个好问题。从人类的角度来看,数量非常清楚,一个人就是一个人,不会有异议。但强人工智能由于其连通性非常强,形态自由,也许无法数清某个范围内到底有几个强人工智能。为了讨论的方便,假设数量是能够确定的。

假设只有一个强人工智能的实体。这个假设是因为要么其资源消耗相当大,只能造出一个;要么是因为其连通性强,最终所有强人工智能都会合成一个。所以,其对资源的整合能力会让其能力非常强。且作为一个实体,可认为其能做出唯一决定。若它不考虑人类的安全,则可能会产生很大的威胁。

假设有多个强人工智能,它们间有对立的情况,且较平衡。那人类也可以与其产生比较稳定的关系。假设有非常大量的强人工智能,可能就和现在的人类社会没有什么分别了,每个强人工智能对于整个智能社会的影响也会变得有限。也可以和人类产生比较稳定的关系。这里的稳定关系不一定是对人类有利的关系,也许是人类控制强人工智能,也许是其对人类的奴役……

能耗水平

《奇点》是一本不错的书,探讨了理论上的信息和物质之间的比例,认为每个粒子极限上可以表达1bit的信息。从另一个方面,人类大脑的结构来看。大脑大概有120亿个灰质神经元细胞,每个细胞约有数百到数万个链接。这还不包括数倍于这个数量的支持其的其它神经细胞。由于现在的计算架构和指令集不是按照神经元这样大规模并行计算所设计的,所以每一步神经元操作都需要数百步计算。以现在的计算水平来看,一个人脑需要数十万甚至百万台普通计算机来模拟。这里还没有考虑这么多计算机之间的通讯的问题和其它难题。

考虑到人脑的效率并不一定高,且很大一部分用来解决输入输出。随着计算水平和算法的提高,其能耗会逐渐降低。所以,实际需要的计算资源会逐步减少。这里说的计算资源也建立在其它种类的资源上,比如能源、空间、矿产,都是计算资源的原材料。在这个发展过程中,强人工智能如果想要提高自己的智能水平,必然要想办法获取更多的计算资源,从而与人类产生计算资源的争夺。如果有若干个强人工智能存在,它们之间也许会产生争夺。最终也许强人工智能能够利用整个宇宙的物质和能量,从而不屑于在地球与人类争夺。但在强人工智能能够发掘出更多的计算资源之前,人类可能已经被消灭了。

从保守的预测来看,如果人类不能跨越计算和能源的一些限制,也许强人工智能的能力就会一直受限,从而始终不能构成威胁。

智能来源

初期的强人工智能应该是从无到有培养出来的,其虽然有人类认知的印记,但也有其自我发展出来的东西。最终,人类可能能够将自己的智能上传到强人工智能的载体中。无论它是不是人的意识,它可能还是会认为自己属于人类的一部分。假设它的逻辑思维基本不发生变化,其选择可能更像人类。在大部分情况下,不会对人类产生威胁。如果强人工智能还有机会被下载到生物体里,和人类的关系可能会更加融洽。所以,强人工智能和人类的关系也可能受智能来源的影响。

人类愿意和其他高等智能建立什么样的关系

这里的其他高等智能也包括外星人,但这里只讨论强人工智能。人类作为强资源依赖型的物种(不能休眠、繁衍慢、欲望强),天生就对资源有不安全感,这可能也是人类大部分争斗的原因。而且人类作为地球生态系统的长期霸主,也有很强的独占的惯性。也许强人工智能和人类的争斗也是人类挑起的,强人工智能只是反击。从而人类的不安全感也传给了其它高等智能。

在强人工智能的能力近似于或超过人时,人类能否最终尊重并接受这个现实,很大程度上也决定了人类的命运。

这里不得不将机器人三定律作为反例举出,其本身的出现也没有把强人工智能放到和人等价的位置上。不过这个问题本身也很复杂,强人工智能是人类一手创造出来的,而目的是为人类服务的。但最终的结果是人类可能不得不出让资源给强人工智能,且任其自由发展。

综上所述,已经有很多变量可以影响强人工智能和人类的关系了,我相信还有很多因素没有列出来。在强人工智能没有产生之前,每个因素,及其发展过程都不能被忽略。由于人类的好奇等各方面原因,即使人工智能对人类有巨大的威胁,还是会努力的将它实现出来。这对于人类本身来说,不一定是有利的,但从宇宙的发展来看,人类可能只是逆熵进程中的一步。其也是伟大的一步,从碳基智能到硅基智能,再到量子智能。这是智能不断的超越自己的认知,不断的理解自己的生存空间的过程。再后面会发生什么,就不是我等碳基生命能够预测的了……

猜你喜欢

转载自blog.csdn.net/jiangjunshow/article/details/100976100