人机、语言、可解释性

      人的意识是由虚拟和真实参照系共同作用的结果。这也是机器不能产生意识的主要原因——没有虚拟参照系(抑或机器的虚拟参照系统很弱)。

640?wx_fmt=png

      在自然语言交流中,句子意思常常不充分决定所说的内容,其原因在于真实参照系与虚拟参照系之间发生了错位,如见面问对方“您吃了吗?”,其实包含着今天的早餐、午餐、晚餐背景,在中国这往往是一句问候的俚语,不需要你回答吃的啥,怎样吃的,吃的感觉如何等等。人与人交流时,这一切都在意会(虚拟)参照系中产生语义。人和机交流时,常常失去了这些默会的参照系统,使得之间交互信息的流动、流量、流向产生了紊乱、失控、变向。尤其是面对岐意、悖论时,人人之间一般会调动默会虚拟参照系统进行规范统一,而人机之间则没有形成这种协调机制,进而就造成了矛盾的对立,还常常不可调和。
       客观而言,语义就是一种人们之间使用有意义元素组成的约定,潜意识里的约定俗成,比语法更为跨界、灵活,而且人们目前对它的规律还未形成有效的规则认知,于是它便成了复杂性事物。
       寻求人工智能的可解释性也许是个伪命题。人A与人B之间的交互可解释性是由主体A主观认定的,对人A而言,人B本身就是一个黑匣子,人B到底是怎样真实配合人A的,准确地说A是不能知道的,即使B对A进行解释说明,但这种解释也许是真的,也许是假的,也许是真假混杂的(有时甚至B自己本身也很难说清楚其真实意图——只可意会不可言传),最后两人的一致性协作是由各自对对方的行为及语言自主认知而产生的,比如实现完美或不完美的乒乓球双打等,最终两人是靠形成的信任或准信任机制实现交互、融合的。所以人与人、人与机器之间的可解释性也是循序渐进的,从不可解释到可解释再到不可解释,主要依赖个性化的经验和认知机理进行的,分别的自我理解和诠释是慢慢形成相互之间默契和信任的基础。另外,在可见的未来中,机器对人的“理解”性解释也会在一定范围内展开,且一定会在范围内展开。无论人人还是人机,能够解不解释也许并不重要,重要的是双方或多方之间良好的互动组织行为及形成的信任机制,这才是交互融合的本质:个性化理解大于可解释计算。“知己知彼”中的“知”不仅仅包含可解释的计算,还包括不可解释的算计吧!
       人机智能难于融合的主要原因大概在于时空和认知的不一致性,人处理的信息与知识能够变异,其表征的一个事物、事实既是本身同时又是其他事物、事实,一直处于与情境中的相对状态,机器处理的数据/信息/知识标识缺乏这种相对变化性。更重要的是人意向中的时间、空间与机形式中的时间、空间不在同一尺度上(一个偏心理一个侧物理),如人在顺利或困难时,一分钟的时间、一间房的空间可以不同;在认知方面,人的学习、推理和判断随机应变,时变法亦变,事变法亦变,机的学习、推理和判断机制是特定的设计者为特定的时空任务拟定或选取的,和当前时空任务里的使用者意图常常不完全一致,这种不同时空/认知参照系的差异诱发了可变性的不同步。
如何找到一种可产生意向性的形式化手段或产生形式化的意向性将是通往人机有效融合智能的关键,目前的数学、物理手段还不能完全承担这个重任,因为它俩只试图解决智能——这个复杂性问题的两个侧面,更多超出它们范围的侧面还无法被覆盖到。
     智能不是人工智能,更不是机器学习算法。同样,人工智能、机器学习算法也不是智能,智能是人机环境的相互融合,是三者之间的知几(看到苗头)、趣时(抓住时机)、变通(随机应变)。

640?wx_fmt=png


猜你喜欢

转载自blog.csdn.net/VucNdnrzk8iwX/article/details/90586251
今日推荐