原创 | QAV:基于大语言模型的智能体协作的基本原理及应用前景展望

da31f77a5e57813047ea5fc037080ba6.png

作者:张家林

本文约6000字,建议阅读12分钟人类需要权衡利弊,并采取适当的监管和控制措施,以确保人工智能的持续、安全和可持续发展。

大约七万年前,基因突变使人类拥有了先进的语言能力,从此,人类可以进行更丰富、更具体的沟通。基于语言,人类因此可以通过虚构故事而创造一种共同的想象,这使得人类能够在更大范围内相互信任、合作,从而实现更大的目标。这种能力是其他物种所没有的。 但以GPT-4为代表的基于大语言模型(LLM)的智能体展现出的惊人“语言能力”,标志着这项独特的能力不在是人类所独有。

「ChatGPT之父」Sam Altman在社交媒体称,全新的摩尔定律可能很快就会出现,即宇宙中的智能体数量每18个月翻一番。如果每一个独立的智能体都拥有了类似GPT-4或更高的语言能力,智能体之间也能够自主进行提示学习、交流,以及具体的指令沟通,达到类似人类的语言交流和沟通,那么一个很自然的推论就是,这种基于“语言”的智能体协作就会成为必然。

随着智能体数量的不断增长,演化为大规模的智能体协作,有可能在许多领域产生革命性的影响,例如科学研究、工程设计、经济活动等。无疑,这场变革将深刻的改变人们的工作、生活方式。但与此同时,就像人类通过虚构故事而逐渐建立起来的文明的原理一样,大规模智能体协作是否会创建某种“智能体文明”,这种新型的文明,将会对人类社会产生的哪些影响都是值得迫切研究的课题。

本文首先对基于大语言的智能体协作构建一个简单的分析模型QAV,然后运用此模型对智能体协作基本原理做一个简要说明,分析智能体协作的主要特点和性能,然后以GPT-4、LLaMA为大语言模型做一个示例,对其应用前景进行展望。

一、基于大语言模型的智能体协作的基本原理

智能体是一个具有感知、推理、决策和行动能力的实体,能够自主地在环境中收集信息、分析数据并为实现目标采取行动。智能体可包括软件程序、机器人和AI系统。

智能体协作是指多个智能体为了实现共同目标而进行的工作和互动过程。在协作过程中,智能体需要共享数据、资源和知识,彼此协调行动,以便高效地完成任务。智能体协作在许多领域都有应用,如自动驾驶车辆、无人机编队、智能家居系统和复杂的人工智能系统。为实现有效的智能体协作,需要解决诸如沟通、资源分配、决策和协同控制等关键问题。

基于大语言模型的智能体协作区别于以往的主要基于协议(规则)的智能体协作,是一种全新的协作范式。它指的是智能体装载了大语言模型,能够自主与其他智能体进行基于语言的交流。智能体之间交流的元操作(mo:meta operation)主要有三种:提示、指令和补全。

提示(P:prompt)是作为输入提供给智能体的文本,用于触发智能体产生输出。通常,提示可以是一个问题、请求或者其他形式的文本信息,旨在引导智能体理解用户的需求并作出相应的回应。

指令(I:instruction)是特定类型的提示,用于明确地告诉智能体希望它执行的任务。指令通常是描述性的,包含了关于如何回答问题或完成任务的详细信息。通过在提示中使用明确的指令,可以引导智能体模型生成更准确和相关的输出。

补全(C: completion):补全是智能体根据给定提示和提示生成的输出文本。这些补全旨在满足用户需求,例如回答问题、撰写文章、编写代码等。补全的质量和相关性取决于智能体加载的模型如何理解和处理提示,以及模型在训练过程中学到的知识。

仅仅使用这三个元操作,智能体还无法构建协作。信任是协作的前提和基础,智能体协作需要彼此之间信任。可以构建出智能体的一个三角计算信任模型:

在这个三角关系中,我们有三个智能体:Q(提问者)、A(回答者)和V(验证者)。Q负责生成提示,A负责补全,而V负责验证A的补全是否准确、满足事先确定的规则或可验证(如程序能够在沙盒中执行)。每个智能体都具备三个元操作(P,I,C)。我们将此模型称为QAV模型。e44db02091cc906232dfa4e5263baa18.png

493d4683cac9d41baebc1be767402608.png

首先,Q将指令和提示提交给A。接着,A会根据收到的提示和指令,生成一个补全。A将生成的补全提交给V进行验证,而不是直接将补全发给Q。

V的任务是对A提供的补全进行验证,以确保其能够满足某些规则、规范或可验证等。V可能会参考知识库或其他可靠外部资源来核实A的补全。如果V认为A的补全合格,V会将补全发送给Q。如果补全被认为是不准确或不合适的,V可以指令A,提供修改后的补全或者提供其他补全直到满足要求。在Q收到来自V确认的A的补全后,Q可以基于得到的补全继续提交新的提示。这个过程循环持续进行,形成一个由三个智能体之间的持续互动的循环。

一个QAV如何运作的简单流程示例如下:

首先让Q(提问者)提出一个关于“建设一个网站”的任务问题。接下来,A(回答者)和V(验证者)将按照上述模型的要求进行相应的操作。

Q:如何建设一个网站?

A:为了建设一个网站,你需要遵循以下步骤:

  • 选择一个域名

  • 注册域名

  • 购买网站托管服务

  • 设计网站布局和结构

  • 创建网站内容

  • 优化网站的SEO

  • 发布网站并进行维护

  • 提交给V进行验证。

V:回答包含了建设一个网站所需的基本步骤。回答合格。将回答发给Q。

Q收到回答后,可能会继续提出具体问题,例如:

Q:如何选择一个好的域名?

A:选择一个好的域名需要考虑以下几点:

短而简洁:域名应简短易记,便于用户输入和分享。

易于拼写:避免使用容易拼错的词汇。

相关性:域名应与网站主题或品牌相关。

使用适当的域名后缀:例如,.com、.org、.net等,根据网站性质选择适当的后缀。

提交给V进行验证。

V:回答涵盖了如何选择一个好的域名的主要方面。回答合格。将回答发给Q。

由于大语言模型能够输出、生产的文本几乎是无限的,因此,即便这个简单的协作网络,也能够持续的进行,从而可以实现某种特定的任务。限制这些智能体协作的因素主要是诸如算力、存储资源和能源。

基于三角计算信任模型,由于每个补全都经过了验证或核实,因此,提高了整体的稳定性和可靠性。由此,智能体之间可以实现很好的协作能力。

如果不采用QAV模型,而是让两个智能体,一个作为Q(提问者),另一个作为A(回答者)直接沟通,在不受人为干预的情况下,会发生以下情况:

自主互动:两个智能体将在它们之间自主地进行互动,Q会向A提出问题或指令,而A会根据其训练和知识回答问题或执行指令。

内容扩散:由于没有人为干预,两个智能体之间的互动内容可能会不断扩散,涉及各种主题和领域。这种互动可能导致一些有趣的、意想不到的结果,但也可能导致不相关或无意义的对话。

可能出现错误回答:在没有人为干预的情况下,A可能会给出错误的回答或提供不准确的信息。这是因为智能体仅根据其预训练的知识库和模式进行回答,而该知识库和模式可能存在偏差或局限。

缺乏目标导向:在没有人为干预的情况下,两个智能体之间的互动可能缺乏明确的目标。这意味着它们的对话可能没有实际应用价值,也可能无法解决现实世界中的问题。

可能出现不道德或不安全的内容:两个智能体之间的互动可能会涉及不道德、不安全或违法的内容。这是因为没有人为干预来监督和限制它们的行为,导致它们可能产生不符合伦理和安全标准的输出。

QAV协作模型的主要特点是:

1)分工明确:通过将问题、回答和验证分配给不同的智能体,该模型能够让每个智能体专注于自己的任务,从而提高效率。

2)循环互动:三个智能体之间形成一个持续互动的循环。这种循环过程使得智能体可以逐步优化解决方案,直至满足预定的规则和标准。

3)可扩展性:该模型可以应用于各种场景,如自动编程、智能问答系统、知识图谱构建等。此外,该模型可以扩展以包含更多智能体,从而解决更复杂的问题。

这个协作模型的主要性能的分析:

1)有效性:是通过{Q-A-V}这三个智能体的持续交互和验证后实现的。

2)适应性:可以通过调整三个智能体之间的交互策略来适应不同场景和任务。这种灵活性使得该模型能够处理各种复杂度的问题。

3)可维护性:通过将问题、回答和验证分离,该模型在某种程度上降低了单个智能体的复杂性。这使得对智能体进行更新、升级或维护变得更为容易。

采用上述模型做的模拟实验表明:基于语言的智能体协作网络可以应用于非常广泛的真实场景和任务。但尽管这个模型具有许多优点,但它也面临着一些挑战。例如,在实际应用中,还需要考虑到算力、存储资源和能源限制等。

将上述这个基础的协作模型扩展,就形成了智能体协作网络。由于不同的智能体加载的大语言模型不同,因此,协作网络可以分为同构和异构两种。例如,Q的大语言模型采用GPT-4,A采用LLaMA模型。通常的做法是,在一个智能体集群内部采用同构模型,而集群与集群之间采用异构模式。

尽管还没有进行大规模的实验,但可以预见,同构网络和异构网络协作的主要问题,就如同人类两个不同的语种、文化之间的交流,需要大量互动才能最终形成。

二、智能体协作的新范式

以是否加载大语言模型作为判断依据,可以将智能体区分为两大范畴:加载大语言模型的智能体(llmAI)和没有加载大语言模型的智能体(nllmAI)。这两大范畴的智能体协作模式存在显著的差异。

nllmAI类智能体的协作的模式,可以根据任务类型、通信方式和协作层级等因素进行分类。主要的协作模式包括:

1)集中式协作:在这种模式下,一个中心智能体控制和协调其他智能体的行为。中心智能体通常具有全局信息和决策能力,而其他智能体则根据中心智能体的指示执行任务。

2)分布式协作:分布式协作模式下,各个智能体相互独立地执行任务,并在需要时进行协同。这种模式下,智能体之间没有明确的中心控制结构,而是通过局部信息和相互协商来实现协作。

3)层次化协作:层次化协作模式结合了集中式和分布式协作的优点,通过不同层次的智能体进行协作。在这种模式下,高层智能体负责全局规划和决策,而低层智能体则负责执行具体任务。高层智能体和低层智能体之间通过信息传递和协商来实现协作。

4)竞争协作:在竞争协作模式下,智能体之间存在竞争关系,但它们也需要在某些情况下相互协作以实现共同目标。这种模式下,智能体需要平衡竞争和协作的关系,根据任务需求灵活调整策略。

llmAI类智能体协作的基本模式是QVA模型。在QAV协作模型中,由A回答者生成的补全交给V验证者验证的时候,事实上V智能体需要其他非语言模型的智能体的协作才能更好的完成验证任务。例如,V智能体给一个软件沙盒指令,验证由A提交的一段建设网站的代码实现的效果。由此,可以看到,nllmAI和llmAI这两大类智能体之间进行协作是智能体协作的新范式。基本原理示意图如下:

0f9e1174737bddb8b36d1502593c4e22.png

新范式下,llmAI类智能体与nllmAI类智能体进行协作的具体实现形式多样。例如,在QVA模型中,V智能体可能需要依赖其他nllmAI智能体(如软件沙盒、模拟装置)来完成验证任务。在这个范式中,各类智能体可以根据自身优势和任务需求灵活地组合和协作,进一步拓展人工智能在各个领域的应用潜力。

我们以github Copilot为例,说明这种协作范式的一个具体流程:

首先,llmAI负责理解需求、生成代码草稿以及在开发过程中解决概念性问题。需求方(Q)可以向llmAI提交一个详细的编程需求,如“开发一个基于Python的Web应用程序,实现用户登录和数据存储功能”。llmAI会解析需求并生成一个初步的代码草稿。

接下来,nllmAI智能体将参与代码的实际开发和验证工作。这些智能体可能包括编译器、测试框架和软件沙盒等工具。在这个过程中,llmAI生成的代码草稿会被传递给nllmAI,它们将对代码进行编译、测试和调试,以确保代码能够正常运行。

在代码开发过程中,llmAI和nllmAI之间需要进行频繁的沟通与协作。例如,nllmAI可能发现代码中的错误或不符合需求的地方,并将这些问题反馈给llmAI。然后,llmAI会根据反馈修改代码草稿并重新提交给nllmAI进行验证。这个过程将不断重复,直到生成的代码满足需求并能够正常运行。

在整个协作过程中,llmAI主要负责需求理解、概念性问题解决和代码草稿生成,而nllmAI则负责具体的代码开发、测试和验证工作。通过这种协作方式,可以充分发挥llmAI和nllmAI在自动化编程领域的优势,实现更高效和准确的代码生成。

新范式的主要优点在于其灵活性和协同效应。llmAI和nllmAI可以根据任务需求灵活地组合和协作,实现各种复杂任务的解决。此外,跨类别协作有助于解决单一智能体难以解决的问题,提高整体系统的性能。

通过上述的分析、实验以及实践表明,新范式下,llmAI与nllmAI智能体的协作已经能够完成很多复杂的任务,而且将会不断的完成更多的复杂任务。

三、新范式的治理和安全挑战

新范式下,治理和安全都是重要的课题。需要从技术、伦理和法律等多个层面进行研究和探讨。

首先,由于智能体之间的大规模、持续的协作,人类获得巨大好处的同时,也必然失去很多控制。为确保智能体协作过程的透明度和可追溯性,需要实施实时监控和审计机制。这包括对智能体的行为、相互之间通信的内容和任务执行情况进行监控,以及对可能的异常行为、数据泄露等安全隐患进行及时干预以及审计。

智能体协作涉及大量数据交换,因此需要采取严格的数据隐私和安全措施。这包括对敏感数据的加密、访问控制、匿名化等,以确保数据在传输和处理过程中的安全。

大规模智能体协作也涉及到复杂的伦理和责任问题。因此,需要制定AI伦理准则和责任规定,确保智能体在协作过程中遵循道德和法律规定。此外,需要明确智能体的责任归属,以便在出现问题时对主体进行追责。

大规模的智能体协作还涉及到跨行业和跨国界的合作,因此需要制定相应的法律和政策。这包括关于数据、知识产权、隐私权等方面的法规,以及有关智能体国际间协作的监管政策。

更为重要的是,为了更好地治理大规模智能体协作,需要进行教育和培训,提高人们对智能体协作、AI伦理和安全等方面的认识和技能。通过这些措施,可以实现对大规模智能体协作的有效治理,确保新范式下,大规模智能体协作带给人类好处的同时,确保安全、合规和高效。由此,需要采取一系列具体操作建议:

1)设计统一的协作协议:制定适用于不同类型智能体(如llmAI和nllmAI)的统一协作协议,明确协作过程中的角色划分、通信机制和任务分配,以实现高效协作。

2)引入监管机制:设立监管智能体的机构,对协作过程中的信息交换、任务分配和资源使用进行监控和审计,确保协作过程的合规性和安全性。

3)建立安全防护体系:加强智能体间通信的安全标准、协议的拟定,如采用加密通信、访问控制和数据隐私保护技术,以防止信息泄露和恶意攻击。

4)引入智能体安全级别测评体系:设计智能体检测算法,根据任务需求、资源状况对智能体的行为以及协作策略进行检测。测试其安全等级。

5)促进多方参与:鼓励各利益相关方参与智能体协作治理,包括开发者、用户、监管机构等,共同制定规范、评估风险和解决问题。

结论:

智能体数量的增长和它们之间的协作会变得越来越紧密,也会带来一些挑战和问题,如数据隐私、安全性、伦理道德等。因此,在发展和应用这些智能体时,人类需要权衡利弊,并采取适当的监管和控制措施,以确保人工智能的持续、安全和可持续发展。

《人类简史》,尤瓦尔·赫拉利

https://github.com/people-art/QAV

《人工智能:现代方法》,斯图尔特·罗素

《计算信任浅析》,张家林

 由GPT-4生成

 艾凡达实验室测试和实验

https://github.com/people-art/QAV/blob/6a1c48cb96eab676a1fb04dbf12204bf288b75d7/GPT-4-test

codepen.io, GPT-4演示

https://openai.com/research/gpts-are-gpts

编辑:于腾凯

校对:程安乐cc12ce6f042a8c452311da7161f9cdb0.png

猜你喜欢

转载自blog.csdn.net/tMb8Z9Vdm66wH68VX1/article/details/129942764
今日推荐