认知仿真:是复杂系统建模的新途径吗

原文链接:https://mp.weixin.qq.com/s/BQ1lpYF5hu58n6YEs0HKGg

近几年来,人工智能受到广泛关注。尤其是“阿尔法狗”战胜人类,为复杂系统建模仿真研究提供了启示。社会管理、战争决策、经济治理、指挥控制、医疗健康等复杂系统领域,一直存在着对经验、直觉等认知建模的需求。“阿尔法狗”所采用的人工神经元网络方法,能否为解决这个问题带来曙光,这值得研究和探讨。

   

复杂系统性质与深度学习启示

人类在对复杂系统的研究中,存在大量关于直觉、经验、认知等无法用形式化方法表示的特性,这意味着仅依赖传统基于相似性原理及形式化知识的建模仿真方法,难以真正表达复杂系统的深层次规律。如何获取和表达非形式化的知识,并将这些知识用于复杂系统的理解和建模,一直是各领域复杂系统研究中亟待解决的难题。“阿尔法狗”(AlphaGo)通过深度增强学习方法,成功解决了围棋这一复杂博弈系统的认知和决策问题,为用智能建模方法去深入理解复杂系统提供了新的思路。

   

复杂系统及面临的建模难题

根据系统论,世界可分为简单系统与复杂系统,简单系统主要是诸如“1+1=2”的那些系统,也就是整体等于各部分之和。所有的系统都像钟表一样,即使结构再复杂,也可以分解还原。系统的性质表现在其结构不会变化,因果关系确定,结果可重复、可预测,状态稳定等方面,如自行车就是这样的系统。复杂的事物,如航空母舰,只要是可以分解还原的,就都是简单系统。

   

复杂系统就是那些“1+1≠2”的系统,即整体不等于各部分之和,研究每一个组成部分,并不能得到整体性质。如人体,死人和活人所有的物质都是一样的,但是一个有生命,一个没生命。从性质上看,它的系统结构是可变,因果不明确,结果不可预测、也不可重复,而且会产生出新的系统性质。社会系统、经济系统、战争系统、人体系统等,凡是与人有关的系统都是典型的复杂系统。“社会危机的不可预测性”“战争中的偶然性”“结果的不可重复性”等都在说明复杂系统的复杂性特点。复杂系统在各种信息关系网络的交互作用下,会不断地产生演化。因此,要想管控这些系统,就不可回避地需解决系统复杂性问题。

   

系统复杂性表现为3种主要性质,其他性质可从这3种性质中衍生出来。

   

1)适应性。Holland认为“适应性产生复杂性”,其最大特点是“环境会导致系统结构不断发生改变”。为适应环境,系统自身结构会不断调整,演化出新的系统结构,从而导致系统产生出新的性质和功能。这是由系统学“系统结构决定系统功能和性质”这一原理所决定的。

   

2)不确定性。不确定性存在的直接结果就是“会导致因果不再一一对应,也不会是完全唯一”。从物理学角度来说,海森堡测不准原理就指出了“不确定性的客观存在性”,即状态的不确定性与人的认识多少无关。从社会学角度来说,由于自由意志的存在,导致人或者人的组织有了选择的自由,因而也会产生不确定性。

   

3)涌现性。涌现性最直接的后果是“会得到新的整体性质,并且这种性质不可预测”。由于系统的自组织、自适应和不断演化,新的系统性质会分层次涌现,且涌现的结果具有非线性,所以它是不可预测的,既有不可预测的随机性,但是也有总体的规律性,而且不以人的意志为转移。往往是“意料之外,情理之中”的结果。看起来好像不可思议,但细想又是很有道理的。

   

复杂系统的上述性质给建模带来了诸多困难。传统建模依据相似性原理,基本原则是结果可重复。对实际系统完成建模后,只要有相同的输入,就会得到相同的输出结果,所以能够用仿真系统的输出来代表实际系统的输出,这是仿真系统运行最基本的原理。但是,复杂系统结构动态可变,结果不重复,且涌现不可预测,这些复杂性特点严重动摇了传统建模的基础,导致采用传统思路对复杂系统建模从根本上就出现了问题,那么,对社会、经济、战争、城市、人体等复杂系统的建模就会变得非常困难。

   

具体来说,复杂系统建模主要存在以下4个方面的困难。第一,复杂系统不可分解,其整体性质不具备局部可加性,因此必须进行整体性建模,而不能先局部建模、再通过局部模型的简单叠加来得到整体。第二,复杂系统具有适应性,结构动态可变,这就要求模型的结构也必须动态可变,也就是要求模型是“活”的,能“变”是对复杂系统建模的基本要求。第三,复杂系统的因果关系不明确,结果具有不确定性,这就要求模型必须能反映出多种可能的结果,而不是只有一种固定的结果。第四,复杂系统演化具有非线性和涌现性,这要求模型能反映出这种非线性的演化和涌现过程。

   

要解决上述这些问题,仅靠传统的建模方法是不可能实现的。中国科协主办的第58期、第82期“新观点新学说”学术沙龙中曾对这一问题进行过深入研讨,研讨得出的基本结论是:基于相似性原理的建模仿真方法从根本上并不适合复杂系统建模。

   

哪些方法比较适合复杂系统建模呢?目前,通过学术界的多方尝试,在复杂系统建模方面已取得了一些进展,提出了一些新的建模方法,主要有以下4种,这些方法虽然解决了复杂系统某一方面的建模难题,但也或多或少存在着一些瓶颈或不足。

   

1)多智能体建模。这种建模方法依赖多智能体之间的相互作用,虽然可以反映出复杂系统内部要素的适应性行为及相互影响,但目前的“智能体”实际上并不智能,大多数都过于简单,还反映不了实际情况,因而建立的系统模型也就比较简单。

   

2)复杂网络建模。它用复杂网络来反映系统的整体性质,是一种比较合适的理论和方法。但现在复杂网络的研究与应用大多数都是单向的,也就是对已有的复杂系统数据进行分析,来确定它是否属于复杂系统,或者具有什么结构或性质等,因而利用复杂网络方法对复杂系统进进行实证研究的多,但反向过来做实际建模工作的还比较少。

   

3)大数据建模。大数据建模是用数据模型来代替数学模型,利用大数据的相关性,来回避复杂系统因果性难找的难题。这种方法可以解决许多复杂系统问题,但复杂系统具有不可预测性,因而这种方法最大的难点是用“过去”很难代替“未来”。建模的重要价值就是得到有预测功能的模型,也就是建立能够预测未来的模型,这对于大数据建模来说可以做,但仍然存在很多困难。

   

4)平行系统建模。平行系统是指由某一个自然的现实系统和对应的一个或多个虚拟或理想的人工系统所组成的共同系统。平行系统建模方法是解决复杂系统管理的一种比较实用的理论和方法。这种方法采用虚、实平行的建模方式来解决复杂性问题,并将人引入模型运行过程之中。但是,采用这种方法仍然需要在“虚”系统里对复杂系统进行建模,因而以上的建模难题也同样存在。

   

究其原因,不管采用上述哪种方法,均与缺乏对非形式化知识的建模方法有关。类似于经验、直觉、记忆之类的知识,其本质都是建立在各类知识相互纠缠基础上的,所以很难用简单的因果形式,比如某个数学公式或者“IF-THEN-ELSE”等形式表现出来,这就需要找到一种非形式化知识的建模方法,才能解决复杂系统的建模难题。

   

“阿尔法狗”带来的曙光

“阿尔法狗”(AlphaGo)采用深度增强学习的方法,不仅在围棋上战胜了人类,而且揭示了一种复杂系统建模的可能。尤其是“阿尔法狗”采用的深度学习方法,被认为是人工智能领域的重大突破。然而,对深度学习既不能有过高的估计,认为它是万能的,能解决一切人工智能问题;也不能过低估计,认为它只是一种普通的技术进展,而忽视它在智能认知方法上取得的突破,以及蕴含在这一突破中的颠覆性意义。

   

1)“阿尔法狗”在4 个方面的突破值得关注。第一,通过深度学习方法掌握了对弈知识,所有的围棋规则和方法都不是编在程序里,而是它通过大量棋谱和自我对弈学习出来的。第二,发现了人类没有的围棋着法,意味着可能突破了人类已有的知识极限,具备了超出人类的可能。第三,在一定程度上捕捉棋感直觉,得到了一种对经验知识的获取方法。棋感,是人类通过训练得到的一种经验直觉,某种意义上说“只可意会,不可言传”。所以,经验直觉并没有形式化的表现形式,也不能用传统的方法来进行处理,因而这种能力过去被认为是人类独有、计算机难以做到的。第四,这种方法具有一定通用性,因而极具参考价值。

   

2)“阿尔法狗”的深度强化学习启示了一种对智能的建模方法。它主要依赖4种方法完成走子。一是策略网络。主要功能是通过学习前人棋谱来获取走子经验,预测下一步棋的走子策略,并且可以通过自我对弈不断进化出更高级的策略网络版本。二是估值网络。主要功能是通过大量的自我博弈,来完成对整个棋局胜负的判定预测。三是快速走子。主要功能是加快走棋速度,采用局部特征匹配与线性回归相结合的方法,通过剪枝来提高快速走子速度。上述3种方法虽然都能下棋,但是它们的融合和协同运行才是最高水平,所产生的能力才能打败人类。四是蒙特卡洛树搜索,主要功能是搜索计算后续步的获胜概率,它相当于1个总控和调度,来控制对前3个算法的选择,完成对策略空间的搜索,确定出最终的落子方案。

   

“阿尔法狗”采用的核心方法是深度学习方法,通过建立人工神经元网络,来理解概念和捕捉经验。学习方法主要是有监督训练、无监督训练等,实质就是分类和聚类。学习条件是通过大批量的训练样本,也就是数据,从而总结出特征。学习结果就是形成对应的人工神经元网络。从输入的各种数据出发,通过整合,建立起网络内部的各个连接,最后得到正确的下棋结果。这些连接的逐步整合,就意味着对问题的逐渐理解。

   

“阿尔法狗”的设计者也不知道策略网络和价值网络内部是如何连接的,因为这是它自己学习训练不断优化得到的。所以,这个网络对我们来说就是一个“黑箱”。人工智能开山鼻祖之一的Minsky曾指出:“智能的诀窍就是没有诀窍。”其实是说,智能实际上是自然的,不知道要怎么建立这些网络,但却把它建立起来了,这才最符合智能的本质。这启示了智能的建模过程其实就是“涌现”,只有涌现出现了,也才能做从简单到复杂的事情。

   

深度学习下的认知是什么?

深度学习下的认知是一种非常接近人类的认知方式。知识主要以公式、规则、文本等形式化方式表达,基本上都是通过抽象化方式、以理性方式学习到的。如从小学、中学、大学直到研究生,无论是学习牛顿定律、运动方程等各个学科知识,还是阅读的各类书籍,这些知识都能够被表示成形式化的方式。但是,除此而外,我们学到的更多知识,是从眼睛、耳朵、皮肤等各个感官中间获得的。如,人的眼睛相当于每200毫秒拍一幅图像,到3岁时就已经看过几亿张图片了。这个过程也是学习的过程,只不过是以直觉感性的方式进行的。再如,球扔过来,伸手就能抓得住,不必知道任何抛物线定律、引力定律,也不用计算空气阻力,凭的是感觉经验。这说明可以通过试错的方法学习知识,而且学习到的知识远超过在学校里学到的形式化知识。

   

对环境的感知是最常见的学习,这种经验学习是是不能言传的,必须亲身体会。结果可能有对有错,理解也可能会有偏差。很多复杂系统根本找不到对应的因果关系和形式化表达方式,依据的主要就是感觉和经验。事实上,在处理复杂系统问题时,所谓“高手”和“低手”的差别,除了基本能力以外,主要就是在经验与直觉上的差别。以围棋对弈为例,棋手都会按照规则去计算和走子,但关键的差距在于经验和棋感不同样。

   

既然AlphaGo能模拟人的经验和直觉,那训练得到的人工神经元网络是否可以作为一种知识的表达形式呢?人类大脑的神经元大致是由细胞体、树突、轴突和突触等构成,把它们都转化为数字的形式就变成了人工神经元网络。通过人工神经元网络,可以识别猫,也可以下围棋,还可以作为飞行员去开飞机。目前,这些都已经先后取得了成功,并且可以表现为不同的形式,其基础都是人工神经元网络模型。因此,知识可以转变成以神经元网络为基础的特定表达形式。也就是说,知识并非一定要用符号、公式或者文字等方式去表达,人工神经元网络本身也可以是一种特殊的知识表达形式。

   

人工神经元对知识的表达能够完善人类知识的数字化表达形式。形式化知识表达方法主要有规则、公式、文本等,人类长久以来积累下来的知识基本上都属于这一类。用人工神经元网络表达可以表达出非形式化知识,即经验、直觉等,如我们看到、听到、感知到并理解的东西,人类的很多知识要依靠这种方式积累。因此,我们既可以用形式化表达的知识,创造出“深蓝”“沃森”这一类智能系统,也可以用非形式化的经验类知识,创造出“阿尔法狗”和“AI飞行员”等为代表的另外一类智能系统。

   

这就相当于对认知进行了建模。那么,什么叫认知建模呢?国防大学认知智能学习小组对此给出一个简单的定义:通过捕获人类经验、直觉和记忆等非形式化知识,与形式化知识一起,构建能够反映复杂系统特征的认知模型,实现对复杂系统的深度理解和仿真,从而实现对复杂系统的演化预测和管控。这里的“认知”,实际上包括了理解、预测和决策3大环节。如何对复杂系统进行认知建模与仿真,就是需要讨论的主要问题。

   

认知仿真带来的问题与思考

智能技术的不断发展,在增强人类获得认知、积累知识能力的同时,不仅会改变我们对复杂系统的认知能力,同时也为我们提供了用认知仿真方法去深入理解复杂系统的新思路。认知仿真的核心是模拟人类的认知方法,深入分析和探讨认知仿真的相关问题,将进一步拓展和丰富复杂系统建模仿真理论与技术方法。

   

经验直觉认知复杂系统建模的特殊模式吗?

1)经验直觉认知:是意识还是物质?经验直觉认知是对事物运行规律的深刻理解,是对各种因素的综合权衡,难以用形式化的方式表达。

   

主要有以下3个方面的困难:第一,它是主观的,从属于个人。每个人的认知必定是主观的,是对事物的一种理解;第二,经验认知并没有统一的形式化表示方式,难以记录和传递。第三,经验认知难以用直接方式传授,接受者要有“悟”的过程,能否接受、接受多少,很大程度上取决于个人的理解能力,高手与低手的差别往往在于认知水平的差距。很多传统领域对复杂系统的理解和管控,往往依赖于人们认知经验的积累。如“宰相必起于州部”“猛将必发于卒伍”说明了在社会治理和战争指挥中经验积累的必要性和重要性。经验积累是对客观事物规律的认知,虽然复杂系统的规律是一种客观存在,而人们认识规律却是一种主观的行为。传统复杂系统建模是将其规律模型化,而直接对规律的认知进行建模可能是另一种复杂系统建模的有效途径。一旦经验和直觉能够通过某种物质模型(如神经网络)表示出来,经验直觉的意识属性也就会物质化,将直接带来意识与物质的统一。

   

目前来看,以深度神经元网络作为经验直觉物质载体和表现形式的认知模型似乎越来越成功。“阿尔法狗”的突破在于找到了一种生成人工神经元网络的方法,可以将对围棋的经验直觉这种非形式化的知识捕捉下来,进入走子网络和估值网络之中,并用多层网络描述了经验的综合性。这种方法目前已经可以适应视频游戏、德州扑克、星际争霸等多种游戏形式,从看别人玩游戏中进行总结,或在不完全信息博弈中进行估算,几乎战无不胜。最近用神经网络构建的认知模型又开始挑战自动编程、写诗写书。这种方法之所以能达到了顶级玩家的水平,其实还是那句话:规则谁都懂,差的就是经验和直觉,差就差在神经元网络的训练效果和所用数据质量上。

   

2)复杂系统建模:是对认知的捕捉吗?

复杂系统具有多面性,需要从多个方面对其进行认识:第一方面,来源于认识世界的3大方法:理论推导、科学实验和仿真建模,这是我们认识复杂系统最基础的方法。第二方面,来源于后来出现的复杂网络和大数据方法,复杂网络被用来描述复杂系统的结构,大数据被用来挖掘复杂系统的特性,目的都是为了找到复杂系统的运行规律。第三方面,与深度学习方法的出现有关,从复杂系统的角度来看,它并不只是简单的智能技术,还可以看作是一种复杂系统的建模方法,也就是通过捕捉经验直觉建立神经元网络模型,来描述和表达出复杂系统的运行规律。不管从哪个角度认知事物规律,反映出来的都是认知的某个侧面,只有将它们都结合起来,才有可能更逼近于最后的真相。

   

对复杂系统认知表现出来的这些特殊性,虽然在很大程度上制约了采用传统形式对其建模的可能性,但同时也带来了复杂系统建模的新机遇。这可以看作是认知物质化带来的直接后果,也就是意识与物质在人工神经元网络上的统一,使得对经验直觉等认知的捕捉,成为新的建模可能形式。值得思考的是,当年处于导体与绝缘体之间的半导体带来了信息革命,处于理论推导和科学实验之间的仿真计算(虚拟实践)带来了第三条认识世界的道路。今天,处于意识和物质之间的认知捕捉,也可能会给我们带来对复杂系统建模的新突破。

   

3)经验直觉捕捉:是新出现的特殊建模形式吗?

关于经验直觉捕捉是否是一种复杂系统建模的特殊模式,现在主要有两种观点。

   

第一种观点认为,是一种复杂系统建模的特殊模式,因为经验直觉能够捕捉下来,并更好地反映出复杂系统性质。比如“阿尔法狗”,它学习的不是下围棋的逻辑,而是建立在几千万盘棋上的试错经验。捕捉获取的是只可意会的非形式化知识,形成的结果是人工神经元网络。这种方法相较于其他建模方法更具有整体性、适应性、不确定性等复杂性特点。

   

这个观点的核心是要把所谓的经验直觉等非形式化的知识捕捉下来。从“阿尔法狗”的成功来看,深度学习、增强学习等一系列经验直觉捕捉技术手段,已显现出了初步曙光,卷积神经网络(convolutional neural network,CNN)、长短时记忆(longshort-term memory,LSTM)、深度玻尔兹曼机(deep boltzmann machine,DBM)等方法也都在不断完善进步,“阿尔法狗”的创始人Demis Hassabis认为,人工智能就是深度学习加上增强学习。现出现了一些更新型的模型,如DeepMind公司提出的想象力模型。该模型认为,单纯的试错学习其计算量太大,仅靠给定规则又可能丢失创新性的结果,因此,将两者结合就出现了想象力模型,模拟的是人类思考问题的经验方式:给定一个问题后,先想象这么做会产生的结果,然后才开始行动。这对复杂系统意义重大,因为复杂系统的规则往往不会像围棋博弈那么明确,信息经常是不完全、不可预知,就需要先设想可能会发生什么情况再采取行动。如在“推箱子”游戏中,智能Agent在不了解规则的情况下,就需要先通过想象来看看这样做的后果,然后再根据结果行动。“宇宙飞船导航”游戏也是一样,要先想象一下各个星球对飞船的吸引力结果,再决定如何规划航行的轨迹。类似这种模拟人类思考模式的新模型,可能在今后会见到更多。

   

第二种观点认为,经验直觉的捕捉并不是一种复杂系统建模的特殊形式。认为“阿尔法狗”获取的其实不是真正的经验直觉,而是一种大数据分析和抽取经验的方法。本质上还是一种剪枝和搜索方法,而非人的模糊直觉。“阿尔法狗”虽然扫荡了围棋的定式,改写了棋形,但并没有动摇围棋的棋理。一个没有感情的机器,是没有办法完全获得完整的人类经验和直觉的。依赖经验的模型是否可信本身也存疑。很多经验和直觉有时并不可靠。正因如此,构建的认知模型是否可信值得怀疑,尤其是在战争决策、社会管理这样的高敏感度场合。同时,有研究证明,现在很多学习算法模型其实很容易被误导。比如,一个通过深度学习算法产生出来的识别“猫”的神经元网络,只要稍微修改其中的数据,就会把“猫”识别为“烤面包机”,这意味着所产生的认知极易被误导。

   

神经元网络是否为复杂系统模型的表达形式?

1)复杂系统与人工神经元网络的相似性。

   

复杂系统模型主要用于描述复杂系统的运行规律,且取决于其内部的结构和演化。由于复杂性的存在,模型的内部结构应该反映多层网络、节点之间相互纠缠影响,并且可以涌现出整体运行规律。无论是对人体、社会、战争,还是互联网、作战体系等复杂系统进行建模,都应该反映出这些特征。从相似性角度来说,如果用人工神经元网络作为复杂系统的模型表达形式,至少在形式上是比较接近的。

   

人工神经元网络又完全不同于传统的模型,它是一种所谓的“认知表达”形式,是由人自己认识并通过人工神经元网络表示出来的,可以被看成是一种应用类似大脑神经突触联接结构进行的信息处理数学模型,通过调整内部大量节点之间相互连接的关系,实现对事物的理解。因此人工神经元网络表示的是对复杂系统规律的某种认知,并将这种认知以模型的形式展现出来。但人工神经元网络是否能反映出复杂系统规律的核心原理呢?众所周知,飞机的发明是人类掌握了鸟类飞翔的空气动力学原理,人工神经网络是不是也是复杂认知智能的原理,目前尚未有定论。从性质上来看,人工神经元网络与复杂系统高度相似,这为复杂系统建模奠定了基础。

   

人工神经元网络建模不同于传统模型,主要表现在以下4个方面。第一,整体性建模,是对整体特征的抽象;第二,结构是动态的,对数据的特征进行动态适应性调整;第三,结果是不确定的,训练过程本身也存在随机性;第四,可以描述出概念涌现,低层次特征的抽象组合会涌现出对高层概念的理解,就象从众多的动物特征中识别出具体的“猫”。

   

神经元网络可以被看成是复杂系统的模型表达形式主要有两方面。第一,符合相似性原理。用人工神经元网络的黑箱模型来模拟复杂系统的黑箱,两者之间具有天然的相似性,当然这是在高层次上的整体相似;第二,不同认知可以有不同结构的差异性。发展不同的人工神经元网络和它的组合,就可以表示出不同类型的复杂系统,就像可以利用不同模型的差异性进行组合,表示不同类型的飞机一样,如小飞机、大飞机、民用飞机、战斗机等。有人把人工神经元网络的结构进行了划分,不同的结构组合之后,就会形成各种各样的结构形式,组合出很多不同类型的复杂系统认知模型。

   

但是认知模型的建模,最后到底是建一个还是建多个?对于认知智能来说,不会只有一个方面,比如只会下棋,它还必须会其他东西,因为这些知识对一个人的认知来说,是完全纠缠在一起的。因此,对复杂系统的理解,也不能只关注一个或几个方面。但是,这样就引出另外一个必须回答的问题:复杂系统的模型到底应该是一个极为复杂的统一整体模型,还是由若干个不同类型模型构成的组合?群体认知是不是多种模型的综合?这些问题都直接挑战了复杂系统模型本身的结构性问题。

   

2)人工神经元网络的黑箱特性。

   

人工神经元网络的黑箱特性,增加了人类理解模型的难度。为了看清楚神经元网络内部发生了什么变化,DeepMind 开发了tensorflow 牧场,但还是很难看清内部发生了什么。有报道说,“阿尔法狗”自我对弈的棋谱人类已经无法理解了。那么,是不是打开了这个黑箱,就可以帮助我们更接近围棋之神呢?换言之,打开了这个黑箱,我们是不是也能从中得到复杂系统更深层次的规律或者是知识呢?目前还难以回答这一问题。为了破解黑箱特性带来的理解难题,现在又出现了一个新的研究热点,就是对深度学习产生的人工神经元网络黑箱进行探测。有人建议对这些计算机里面的人工神经元网络进行“脑外科手术”,目的当然是要想弄清楚里面到底是什么。Voosen指出,应该发展出一门新的学科,叫“人工智能神经科学”,可能也是出于同样的考虑。

   

人工神经元网络黑箱之所以是个难题就与它与复杂系统性质密切相关。一是人工神经元网络的所有连接极为复杂,而且整体纠缠,牵一发而动全身。有人形容这些信息是“全息”的,也就是“人人有我,我有人人”,每一部分都关系到整体,整体又都影响每个局部;二是人工神经元网络的连接还是动态的,因为认知总是在不断变化,模型也会跟着不断变化,基本上是“此一时,彼一时”,不会总是固定不变。比如,有很多网民在和微软“小冰”对话时,就不断教它说脏话,结果小冰真的就学会了说脏话。但是,要把它改回来并不容易,不是调哪个软件参数就改得回来的,需要用大量数据重新再去对它进行训练。这是因为在训练好的人工神经元网络中,每一个连接都相互关联,动一处必然会引发一大片都要随动。

   

可进化是否是智能认知模型的固有属性?

1)复杂系统的进化与反身性。

   

根据复杂系统理论,适应性是进化的动力。但是,如果从建模角度考虑,还要回答一个问题,到底是谁进化了,是复杂系统,还是人类的认知?

客观上,复杂系统在适应环境中是不断进化的,因而反映复杂系统原理的模型也需要不断进化。但主观上,对复杂系统的认知也在不断进化,因为理解在不断加深,所以认知模型也需要进化。这两个侧面,一个客观,一个主观,无论是复杂系统本身,还是我们对复杂系统的认知,其实都在进化。因而,认知也应该成为建模必须要考虑的核心问题之一。

   

要理解这个问题,首先需要了解复杂系统的另一个重要性质——“反身性”。这是复杂系统的一个非常关键核心的性质,但被很多研究者所忽视。“反身性”是人也是系统的组成部分之一,人的任何行为(包括认知),都会对系统造成反作用,都会导致系统的状态发生改变,任何与人有关的复杂系统都具有这个特性。

   

对于自然界中的系统,人对其影响不大,因此可以假设人不在系统之中。如,无论人们预测明天是否会下雨,都不会影响明天气象的自然规律。但是,如果证监会主席或某些重要的知情者评论股市,甚至是某人造出的谣言,就可能会影响股市的波动,因为人本身就属于股市所在的系统。这就是反身性。同样,战场上指挥员对战场态势的认知,也会构成对战场系统的影响。因此,复杂系统与认知是分不开的。对自然界中的简单系统,我们可以不考虑反身性的问题,但是只要是与人相关的复杂系统研究,就必须要体现认知的反身性影响。因此,模型的进化很自然就与系统本身和认知都有关系。

   

“阿尔法狗”的成功依赖于其策略网络、价值网络、增强学习的不断发展。策略网络通过学习人类16万盘棋中蕴藏的有限容量经验知识而不断进化;价值网络通过自我对弈的3000万棋面中蕴藏的经验知识而不断进化,而且还脱离了人的限制;增强学习则是“左右互博,见多识广”,人类已经很难理解其对弈的招数,进化出来的新版本,已经远远超出了它自己的初始版本。

   

因此,可得出一个结论:进化是智能认知模型的固有属性。不会进化的模型,显然满足不了仿真的需要。同时,也可以得到一个推论:认知模型应该是动态的,也就是结构应该是不固定的。从结论和推论来看,人工神经元网络是比较符合这一特点的。

   

2)模型进化的极限与方向。如果模型要进化,还应解决“极限”和“方向”两个问题。“极限”探讨的是进化是否有尽头。如,“阿尔法狗”的能力会不会一直增长?它一直在“左右互搏”,新版本跟老版本对抗,不断学习,提高自己,会不会有能力提升的极限呢?如果到了这个极限,会不会还继续进化?如果再进化,它还是不是认知模型呢?比如,据说“阿尔法狗”现在相当于22段,那它会不会达到50段、100段?这都是需要探讨的问题。人类现在已经进化成了直立行走的动物,但我们现在也不知道人类的行走方式是不是已经停止了进化,也不知道这是不是就是人类行走进化的极限。

   

“方向”探讨的是进化方向是否是唯一确定的,也就是说,进化会不会有几种不同的结果?是不是都能从低手进化成高手?提出这个问题,是因为复杂系统有一个固有问题,即混沌从复杂系统来看,系统的演化可能会进化涌现出更有序的系统结构,也可能掉入混沌状态中去,进化的方向就会有很大的不确定性。

   

认知模型的进化是否会突破人类容忍的极限?

1)智能模型的容忍极限与超越可能。作为深入理解和管控复杂系统的一种新思路,将智能技术用于复杂系统建模仿真研究会出现哪些可能性,有以下2种观点。

   

第一,智能建模完全有可能超越人类的容忍极限。现在的技术已经显现出了端倪,“阿尔法狗”对围棋这一复杂博弈系统的认知和控制已经超出了人类。深度学习技术与算法还在不断改进完善,在图像理解、语音识别、围棋博弈、德州扑克、飞机驾驶、星际争霸等等诸多领域,攻克了一个个人类的智能堡垒,现在自主编程又出现了,将来只会越来越多。

   

第二,智能建模只能不断逼近人类认知,根本无法超越。“阿尔法狗”也只能在单一智能上超过人类,在综合智能、创造性等方面差距还很大,目前也还没有见到任何算法可以“真正”理解它所处理的内容。如果仅仅是单独训练不同的人工神经元网络,而不是把它放到认知整体上来看,它永远不会成为真正的智能。只有当很多神经元网络模型能够做到像复杂网络一样交错纠缠在一起之后,才能在更高层次上涌现出真正的智能。更重要的一点是,没有自主的直觉和意识,就根本谈不上“超越”人类,但是自主的直觉和意识,就目前的进展而言,还根本一点也看不出有这种可能性。

   

2)认知智能研究的矛盾与悖论。认知智能研究会带来一系列值得思考的问题。对认知智能模型的研究,或许可以解决复杂系统理解和管理问题,但也可能带来更多的新问题。例如,我们建立的认知模型,会不会比我们更了解复杂系统?与之相关的另外一个很值得讨论的问题是,被认知后的复杂系统会带来什么变化?

一般说来,我们对一个系统的认识和理解加深了,掌控它的程度也会更进一步。比如,我们认识了一台机器的原理和结构,就很容易对它进行拆解、组装或维修。但是,对于复杂系统而言,这个问题可能就不是那么简单,甚至还可能出现一个悖论:我们为了掌控复杂系统,就必须对它充分认识;但对它认识越多,却发现不是离真相越近,反而可能是越远了。这个悖论之所以产生,就是因为反身性原理,我们认知的本身会导致系统发生演化,而这种演化又具有非线性、不确定性等特点,而蝴蝶效应又会使结果具有很强的不可预测性。因此,当我们利用认知智能去解决社会、经济、战争等复杂系统问题时,是否会激发系统产生更复杂的演化,导致新的安全、社会等问题,就非常值得我们深入思考。

   

因此,人工智能的发展面临着新的“囚徒困境”:谁来决定该不该发展它?发展它可能面临很大的风险,但你不发展别人发展也许更加危险!这背后的核心问题其实是理性发展与非理性发展两种观点的博弈。所以,马斯克不断呼吁限制人工智能,但他也是最积极的投资者之一,恐怕就是这个道理。

   

结 论

复杂系统的认知仿真是否可以成为解决社会、经济、战争等复杂系统的终极手段,其结论不得而知。但是,不断深入的研究包括建模仿真,会使人们逐步认识和理解复杂系统的运行规律,在掌握和控制复杂系统的道路上不断进步;同时这些认知也可能会激发出更复杂的演化,导致复杂系统产生出更多的新问题,使得对复杂系统的认识和管理更加困难。比如,在智能化程度上先进与后进国家间的差距如果过大,就很可能带来不可预知的巨大危险性。

   

因此,深入地研究认知建模与仿真问题可能是解决复杂系统问题的一条可行途径,但同时也必须从复杂系统观点出发,从理论上有所突破,才有可能取得较大的进展。复杂性与智能认知,是不是殊途同归,还是一个值得思考的问题。

   

基金项目:军民共用重大研究计划联合基金项目(U1435218);国家自然科学基金项目(61174156,61273189,61174035,61374179,61403400,61403401)

参考文献(略)  

本文作者:胡晓峰,贺筱媛,陶九阳

作者简介:胡晓峰,国防大学联合作战学院,教授,研究方向为战争模拟、军事运筹、军事信息系统工程。

本文发表于《科技导报》2018 年第12 期,敬请关注。

(责任编辑  卫夏雯)

猜你喜欢

转载自blog.csdn.net/screscent/article/details/83898663