Language Models, Agent Models, and World Models: The LAW for Machine Reasoning and Planning

本文是LLM系列文章,针对《Language Models, Agent Models, and World Models: The LAW for Machine Reasoning and Planning》的翻译。

语言模型、代理模型和世界模型:机器推理和规划定律

摘要

尽管大型语言模型在许多应用程序中取得了巨大成功,但由于其推理、学习和建模能力的固有局限性,它们在各种(语言、具体化和社会化)场景中往往无法实现一致的推理和规划。在这篇立场论文中,我们提出了机器推理的一个新视角,即LAW,它将语言模型、代理模型和世界模型的概念联系起来,以获得更强大和通用的推理能力。特别是,我们提出世界和代理人模型是推理的更好抽象,它引入了深思熟虑的类人推理的关键元素,包括对世界和其他代理人的信念、对后果的预期、目标/回报和战略规划。至关重要的是,LAW中的语言模型充当了实现系统或其元素的后端,从而提供了计算能力和适应性。我们回顾了最近取得相关进展的研究,并讨论了未来实施法律框架的研究方向。

1 引言

2 前言:三个模型

3 LAW框架

4 讨论

我们提出了LAW框架作为公式化机器推理的一个新视角。LAW融合了信念、未来预期、目标/回报和战略规划等关键要素,旨在实现比当前语言模型推理更强大、更通用的推理能力。LAW框架的各个方面与最近关于构建世界模型和代理模型的建议一致。至关重要的是,LAW引入了一个综合框架,以认知基础的方式将三个模型结合起来,以解决广泛的任务。我们已经讨论了现有的语言模型如何作为与世界和代理世界进行推理的后端。我们还提出了增强语言模型后端的世界和代理建模能力的可能方法,包括新的训练范式和增强多模态能力。
我们认识到法律框架有其局限性。首先,语言模型后端隐含了离散空间中的符号表示。我们已经讨论了用由其他模态建模的额外连续潜在空间(例如,模拟像素级世界状态转换的扩散模型的潜在空间)来扩充该空间的可能性。然而,也可以将单个连续的潜在空间用于世界模型或代理模型。虽然我们假设来自语言模型的符号表征可能有助于我们学习现有LMs所证明的世界和主体的因果结构,但仍不清楚连续的潜在表征是否能达到同样的能力。第二,当前的世界和代理建模可能无法获取关于世界和代理的所有知识。例如,我们假设代理人的行为是由目标或奖励驱动的。然而,行为可以由其他变量驱动,例如社会规范。最后,本文没有讨论transformer架构的固有限制。我们相信,进一步研究transformer的学习机制,可以对机器推理的发展起到补充和有益的作用。

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/134988342