Exploring the Intersection of Large Language Models and Agent-Based Modeling via Prompt Engineering

本文是LLM系列文章,针对《Exploring the Intersection of Large Language Models and Agent-Based Modeling via Prompt Engineering》的翻译。

通过提示工程探索大型语言模型与基于Agent的建模的交叉点

摘要

模拟的最终边界是精确表示复杂的、真实世界的社会系统。虽然基于代理的建模(ABM)试图研究更大系统中代理的行为和交互,但它无法忠实地捕捉人类驱动行为的全部复杂性。像ChatGPT这样的大型语言模型(LLM)已经成为解决这一瓶颈的潜在方案,使研究人员能够以以前难以想象的方式探索人类驱动的交互。我们的研究调查了使用LLM模拟人类互动的情况。受Park等人的启发,通过提示工程,我们提出了两种人类行为可信代理的模拟:两名特工的谈判和六名特工的谋杀推理游戏。

1 引言

2 方法

3 结果

4 相关工作

5 结论

尽管模拟还很初级,但这项研究强调了建立大规模数字游乐场的潜力,以使用LLM评估现实世界中人类驱动的行为。关于可信度,Park等人量化了LLM驱动模拟的可信度,并发现LLM代理可以产生比人类状况更可信的行为,正如众包人类评估人员所评估的那样。
最后,我们强调了制作大规模LLM模拟的两个挑战。

  • gpt-3.5-turbo的4096个最大提示token限制限制了我们模拟的复杂性。更大的上下文窗口可能实现涉及数千个LLM代理的大规模模拟和跨越多年模拟时间的长期模拟。
  • 从大型上下文窗口中检索相关信息仍然是一项复杂的任务。可能的解决方案可能涉及启发式、会话历史的总结,或者结合注意力机制来关注记忆流。

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/132426680