Agent系统

Agent是分布式人工智能和现代计算机、通信技术发展的必然结果。给Agent下一个确切的定义很困难,一般都是根据自己的研究领域和需求进行定义。最经典和广为授受的是Wooldridge等人的“弱定义”和“强定义”[104]。1)弱定义:Agent一般用以说明一个具有自主能力、社交能力、反应能力和预动能力的软硬件系统。2)强定义:Agent不仅具有以上的特性,而且具有知识、信念、目的、义务等人类才具有的特性,还具有流动性,诚实性和理性等特性。一般而言,可以认为Agent是一类在特定环境下能感知环境,并能灵活、自主地运行以实现一系列设计目标的、自主的计算实体或程序。在一定的目标驱动下并具有某种对其自身行为和内部状态的自我控制能力,准确理解用户的真实意图,运行于复杂和不断变化的动态环境,有效的利用环境中各种可以利用的数据、知识、信息和计算资源,为用户提供迅捷、准确和满意的服务。
Agent具有的属性尚无定论。Wooldridge和Jennings等人提出的Agent应具有自主性、反应性、社会能力与主动性四个基本属性[105],大多数的Agent研究者认为Agent除了满足一些最基本特性外,还应该包括如移动性、适应性、学习性等特性[106]。Agent的特性使得它表现出类似人的特性,为解决企业复杂问题提供了新的途径。虽然Agent可能具有多种属性,但是研究和开发人员没有必要构建一个拥有所有以上描述特性的Agent,而是从实际企业需求出发,开发包含所需特性的Agent企业系统。
现有的Agent应用都是以Agent的某几个属性作为关键属性,进行Agent结构设计,Agent结构大体上可以分为以下几类。
(1)思考型Agent [106]
思考型Agent将Agent看作是一种意识系统,一种特殊的知识系统,即通过符号AI的方法来实现Agent的表示和推理。思考型Agent的结构直接反映了Agent作为意识系统的理性本质,是支撑Agent进行行为推理、思维判断等意识活动的关键,也是构造各类复合型Agent个体的基础。图示4-2给出了思考型Agent基本结构。
选择什么样的意识态度来刻画Agent是构造思考型Agent首先要考虑的问题。根据Agent理性的不同实现方式,有以下几种典型的思考型Agent结构,基于经典逻辑的Agent结构,基于BDI框架的Agent结构和基于决策理论的Agent结构等。
1)基于经典逻辑的Agent
基于经典逻辑的Agent以经典逻辑公式表述Agent状态和行为,以在一定推理规则下演绎推理表述Agent的思维决策过程,将推理求得的结果公式作为输出动作。由于经典逻辑具有严密的语法和直观、简洁的语义,因此基于经典逻辑的Agent结构也相应地具有这些优点。但同时,由于经典逻辑本身的局限性,使得问题复杂度增加时,推理过程的计算复杂度呈指数上升,因此在很多情况下失去了实用价值。另外,经典逻辑的表达能力有限,对复杂环境状态难以建立相应的逻辑表达式,更难以表示信念、意愿等反映思维意识的概念。
2)BDI结构的Agent
BDI是思考型Agent结构的典型代表,反映了人们为了实现一定的目标而采取一系列行动的过程,具有深刻的认知心理学和哲学基础[108]。BDI模型由信念、愿望、和意图三个基本概念构成的。信念是Agent所掌握的关于当前世界状况以及为达到某种效果可能采取的行为路线的估计,表示Agent对环境和自身的了解;愿望描述了Agent对未来实际状况以及可能采取的行为路线的喜好。Agent可以是不相容的,也允许存在不可达的愿望,其中相容且可达的部分构成目标集;由于资源的有限性,Agent不可能一次追求所有的目标,它选择目标集中的一部分作出承诺,从而形成意图。信念、愿望、意图等概念通过人们的日常生活可建立起一些非形式化的概念,同时为分布式环境中的Agent交互打下基础。但也应该注意到BDI模型存在以下的问题:
a.通过逻辑描述的方法表达信念、愿望、意图等反映思维状态的概念,并合理完成相应的推理转化,还有很大的困难。
b.BDI实际上可以说是个体Agent思维属性,描述Agent之间的社会层面的交互还存在一定的局限性。如何与MAS中的协调、合作、协商、组织规范等宏观理论结合,人们已认识到将诸如联合意图、集体承诺等群体概念直接归结为个体思维属性的组合做法的缺陷,提出要使Agent具有社会层面的思维属性,但在实用化方面仍然有很多困难。
3)基于决策理论的Agent结构
Agent观察外部环境,然后通过自身的预测、思考或规则匹配,最后输出行为的过程可以看作是Agent求解问题并追求效用最大化的过程。因此,Agent 理性行为可以从描述理论出发,通过基于效用评价的决策过程来刻画。基于决策理论的Agent结构较好的反映了人们求解问题的实际过程,可以在决策理论的指导下综合运用数学、逻辑、人工智能等多种技术加以实现。同时,可用对方案结果的估计来表示“信念”,用各个可能结果状态的效用来反映“愿望”,可较好的实现Agent的BDI框架结构。
同时,由于决策Agent的资源有限性和客观世界无限性的矛盾,决策者不可能尝试所有的方案,于是从两个方面寻求解决途径:一是对真实环境的简化,用较小的问题空间代替实际的问题空间,形成以估算和最优为特征的经典决策理论方法;二是以满意替代最优,形成以搜索和满意为特征的现代决策理论方法。满意法则并不需要严格估计或计算后果的发生概率及相应的效用,而只需要一个相对范围,整个决策过程是一个逐步细化的搜索过程,但如果过程控制不好,也可能导致过多开销。
(2)反应式Agent[107]
反应式Agent结构更加强调交互行为本身对产生智能和理性行为的作用,Agent的智能、理性的行为不是在其所处的环境单独存在的,而只能在现实世界与周围环境的交互中表现出来。Agent不依赖于任何符号表示,直接根据感知输入反射行动。如图4-3所示反应型Agent基本结构,该结构只是简单的对外部刺激发生反应,没有使用符号表示的世界模型,也没有复杂的符号推理。在决定如何行动时并不参考历史信息,它们的决策完全基于当前状态。
相对于逻辑推理和效用计算,反应式Agent结构在响应速度上具有优势。尤其是在动态、时变环境中其重要性更得以体现。但是反应式Agent结构的局限性也很明显,比如,只根据当前环境状态决定自身行为,缺乏对整个环境以及环境变化历史的了解,因此其行为缺乏中长期规划。决策是以局部信息为基础的,不能考虑整体和其他部分的信息,也无法预测其决策对整体行为的影响,这种没有远见的行为可能导致系统行为的不可预测性和不稳定性。反应式Agent模型依赖于一定的设计者经验基础之上的行为规则和优先级规则,很难形成系统的方法。另外,反应型Agent没有任何学习能力,表现出Agent的适应能力比较差。
(3)混合式Agent[107]
思考型Agent具有较高的智能,但无法对环境的变化做出快速响应,而且运行效率较低。反应型Agent能及时而快速地响应外来信息和环境的变化,但其智能程度较低,也缺乏足够的灵活性。纯粹的思考型Agent和反应型Agent对于大多数的实际问题都不是十分合适,实用的方法是综合两者的优点,把以上两类Agent结合起来,构造混合体系结构的Agent,通常被设计成至少包括如下两部分的层次结构:高层是一个包含符号世界模型的认知层,用传统符号处理规划和进行决策;低层是一个快速响应和处理环境中突发事件的反应层,不使用任何符号表示和推理系统,反映层通常具有更高的优先权。
过程推理系统(Procedure Reasoning System)PRS体系是混合式Agent结构的一个典型实例。PRS有一个计划库以及显式表示的信念、愿望和目标:信念是一些事实,包括外部世界和Agent的内部状态,它们是用经典的一阶逻辑表示;愿望由系统行为来表示;PRS计划库包含一些不完整的计划,称为知识区(KA),一个KA都和一个激活状态相连,这个状态决定KA什么时候被激活。德国Fischer和Muller等人提出的INTERRAP结构,更是层次结构的典型代表[109]。它的控制器分为:行为层、规划层、协作层,其中,行为层用于对外界情况作出及时反应,规划层支持系统的中长期规划,协作层则支持系统与外界的交互。设计此Agent的三个层次反映了反应性、预动性、社会性的Agent三个属性。
(4)EDA模型[59]
EDA模型与其他人工智能中的Agent模型不同,它不仅说明了目的性,而且便于多Agent环境下的社会交互。EDA模型包括认知(Epidemic)、义务(Deontic)及价值(Axiologic)三个部分。E、D、A来源于建立在社会心理学中对Norm的分类:认识、行为和评估Norm。认知组件中存储了Agent的知识,共涉及到两种知识:陈述性知识(关于Agent的信念)和过程性知识(关于Agent的know-how)。价值组件是Agent的价值系统,是由Agent对一系列Norm的偏好组成;偏好不是固定不变的,而是在不断地发生着变化。义务组件是描述行动倾向于以某种方式实现。
信念(Belief)一体化到认知模型中,义务(Obligations)和责任(Responsibilities)体现在义务组件中,价值(Values)放在价值组件中
说明: 到语用功能,用来过滤感知信息。根据Agent本体,使用感知和价值Norm,更新一个或多个模型组件; 是价值函数,主要用在以下两种情况下:帮助确定感知哪种符号,帮助决定把什么目标放在日程和执行中; 代表以知识为基础的组件。存储了Agent的显示和隐式信念; 代表一系列的计划,可能是显示的也可能是隐式的。这些计划都是Agent感兴趣的并且可能要选择执行的。
EDA模型有较强的描述能力,适合描述人类Agent又适合描述软件Agent,同时关注Agent的社会性。但是正如Filipe自己所指出的,使用EDA模型中的每个组件中的表达式(Statements)自动化推理过程仍是一个公开的问题,而且在他的研究中也并未试图解决。因而,采用EDA的方法来表示的Agent在实际应用中还有很大的难度。

猜你喜欢

转载自blog.csdn.net/shenwansan_gz/article/details/82109415