A Survey of Large Language Models Attribution

本文是LLM系列文章,针对《A Survey of Large Language Models Attribution》的翻译。

摘要

开放域生成系统在会话人工智能领域(例如,生成搜索引擎)获得了极大的关注。本文全面回顾了这些系统所采用的归因机制,特别是大型语言模型。尽管归因或引用提高了事实性和可验证性,但模糊的知识库、固有的偏见和过度归因的缺点等问题可能会阻碍这些系统的有效性。这项调查的目的是为研究人员提供有价值的见解,帮助改进归因方法,以提高开放领域生成系统生成的响应的可靠性和准确性。我们认为,这一领域仍处于早期阶段;因此,我们维护了一个存储库来跟踪正在进行的研究https://github.com/hitsz-tmg/awesome-llm-attributions.

1 引言

2 任务定义

3 归因的来源

4 归因数据集

5 归因方法

6 归因评估

7 讨论

7.1 归因错误分析

7.2 归因的局限性

7.3 归因的挑战性

7.4 归因的未来方向

LLM的持续更新。即将到来的进步的一个有希望的方向是创建一个持续刷新LLM信息的系统,类似于搜索引擎更新数据库的方式。这种方法不仅确保了归因的最新内容,还提供了一个持续学习和适应的平台。
增强LLM输出的可靠性。另一个关键方向是提高LLM输出的可信度。这可以通过纳入严格的系统来实现,这些系统评估他们所属信息来源的可信度和准确性。确保可靠和一致的来源将增强用户对所生成内容的信心。随着LLM在各个领域的广泛采用,其输出的可靠性对于不同部门的知情决策至关重要。
平衡创造力和适当的信用归因。此外,LLM因其创造性的内容生成而受到认可。在这种创新能力和适当的信贷之间取得平衡是一项需要调查的微妙行为。虽然创造力是LLM的重要优势之一,但确保生成的内容保持可信并植根于事实基础至关重要。其目的是确保LLM在不妨碍其创作潜力的情况下承认来源。平衡这两个方面可以营造一个用户既从模型中受益又信任其输出的环境。

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/135089488