技术动态 | 利用知识图谱克服人工智能幻觉

转载公众号 | 知识管理就在夏博


自从ChatGPT成功推出以来,像大型语言模型LLM这样的人工智能系统引起了全球的关注,尽管LLM存在的时间要长得多。这些系统现在支持从聊天机器人、内容生成到头脑风暴和脚本代码的很多场景。然而,随着这些模型变得越来越复杂,它们产生错误的可能性也越来越大。

最近,像ChatGPT这样的大型语言模型产生了不准确的报告,争论了不正确的事实,并在他们的答案中描述了现实世界的偏见。这导致人们越来越关注大型语言模型的可靠性。

本文将探讨ChatGPT和其他大型语言模型的问题,并讨论知识图谱如何帮助改进它们,以提供可靠的人工智能生成的输出。

什么是人工智能幻觉?

人工智能幻觉是指人工智能系统的局限性,迫使它们产生听起来合理但不基于现实,或与现实世界知识不一致的输出。在某些极端情况下,输出可能是完全不合理和无意义的。例如,一家名为Nabla的医疗机构曾经测试了OpenAI的GPT-3聊天机器人以获取医疗建议,聊天机器人建议一个模拟精神病患者自杀。

当模型根据数据中的统计模式生成输出,而没有完全理解潜在的含义或上下文时,就会产生这些幻觉,从而导致无意义的结果。在某些情况下,它们也可能源于对有偏见或不完整数据的训练,导致人工智能系统做出与现实不符的假设或结论。

人工智能幻觉是开发可靠、值得信赖的人工智能系统的重大挑战,特别是在准确性至关重要的应用场景中。

什么是大型语言模型?

大型语言模型LLM是用于解释、翻译和总结自然语言文本的机器学习算法。这些模型使用深度神经网络从广泛的训练数据中学习,以产生适当的输出。通过转换器体系结构的自关注机制,大型语言模型可以将句子中的单词关联起来。单词之间的关系是通过评估和比较文本序列中每个单词的注意力得分来捕获的。大型语言模型的训练文本数据是从多个来源积累的,例如书籍、开放的互联网、文章、社交媒体或研究论文。

大型语言模型用于广泛的应用程序,如会话AI、内容创建引擎、搜索引擎、客户服务代理等。它们是一项强大的创新,旨在自动化和增强自然语言处理任务。

大型语言模型有什么问题?

虽然我们不能破坏像ChatGPT这样的大型语言模型的复杂性和流畅性,但关键是不要完全依赖它们的结果,因为它们有产生幻觉的倾向。像ChatGPT这样的模型在支持事实性查询方面可能存在缺陷,因为它不能提供来自最新和可验证信息的确凿证据。这会导致模型产生幻觉,并产生不准确或过时的反应。

人工智能研究员扬·勒昆(Yann LeCun)表示:“LLM对语言描述的潜在现实没有清晰的理解,而且大多数人类知识都是非语言的。” 这意味着虽然LLM可以生成语法和语义上合理的文本,但他们缺乏现实世界的经验。这使得它们很难产生准确的输出,特别是在处理需要在现实世界中观察的复杂和微妙的主题时。例如,人类通过实践试验和错误来学习滑雪,而不是使用语言理论。

因此,LLM在产生精确输出方面的有用性仍然有限,并且还可能对医疗保健、金融或国家安全等关键任务行业产生不利影响。例如,生成事实上不准确的医疗信息的LLM可能会导致不正确的医疗诊断,从而导致人命损失。或者是一个产生幻觉的LLM,给金融公司提供不准确的法律分析,导致做出可能招致重大损失的决定。LLM也可以帮助网络犯罪分子生成网络钓鱼邮件,以未经授权访问安全的军事系统,危害国家安全。

什么是知识图谱?

知识图谱是以节点和边缘网络的形式对知识进行图形化表示,描绘了真实世界的数据实体及其关系。知识图谱为结构化和非结构化数据提供上下文和意义,使它们易于理解。知识图谱的实体信息和关系信息存储在图数据库中,图数据库作为知识图谱的知识库。

知识图谱集成了各种数据源和跨任何数据存储的映射关系,以帮助组织从数据中检索有意义的事实,并通过数据分析发现新的事实。它们管理现实世界数据波动特性的能力使其能够适应不断变化的数据,这使其成为从数据中发现隐藏见解的重要工具。

知识图谱和LLM如何协同工作?

结合知识图谱和大型语言模型可以为语言知识的局限性提供更强大的解决方案,并且可以潜在地解决幻觉问题,从而提高查询结果的准确性。

45c783bfcb86831f366dcf7bedcc8283.png

将知识图谱与大型语言模型集成包括将上下文知识库合并到模型中,从而允许模型在概念之间建立逻辑连接。这使得大型语言模型能够利用各种信息源,包括结构化和非结构化数据,以生成更准确和相关的输出。此外,它允许模型以更深入的理解进行推理,并生成更有意义的文本。

例如,一家生物制药公司想要改进其药物发现。该组织可能想要实现一个基于LLM的聊天机器人,它可以直观地回答有关临床试验的询问。然而,LLM可能无法获得所有必要的信息来提供准确的答案。

为了解决这个问题,该公司将其LLM与知识图谱引擎结合起来,创建了一个详细的医学知识库,其中包括有关药物及其试验的结构化和非结构化信息。因此,如果用户询问药物化合物的临床试验,LLM将迅速参考知识图谱的上下文知识库,以识别和分析与该化合物相关的所有信息。这种整合可以使公司从数据中提取强大的见解,并利用它们进行突破性的药物发现。

知识图谱与LLM结合的好处

结合知识图谱和大型语言模型LLM可以带来以下好处,包括:

准确知识的集中来源:通过将大型语言模型的输出连接到知识图谱引擎,可以将数据以标准化格式集中起来,使其更易于访问和分析。知识图谱提供了上下文的可视化表示,提供了语义见解,可用于准确回答有关数据的问题,训练机器学习模型或为业务分析提供动力。

不同格式数据的结构化知识融合:知识图谱为LLM提供了一种将概念联系在一起的结构化方法。通过将数据合并到一个单一的、统一的视图中,知识图谱可以帮助以一种易于理解的格式组织数据,这种格式可用于做出更好的决策,识别新的见解,并获得对数据的更全面的理解。

增加所收集数据的潜在知识价值:通过将以前孤立的和不可访问的数据连接在一起,知识图谱引擎将所有收集到的数据作为一个单一的事实来源,可以分析以发现隐藏的知识宝藏。这为大型语言模型的信息价值提供了上下文深度,这是模型无法独立获得的。

为LLM提供了现实世界的人类参考框架:大型语言模型在处理自然语言文本方面表现出色,但缺乏现实世界的参考框架。通过将它们连接到知识图谱,LLM可以访问反映现实世界数据模式的结构化知识,从而更深入地了解非语言知识。这可以帮助他们产生更准确和上下文相关的反应。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

01f8eacf7ea7972b5d86e7310303e775.png

点击阅读原文,进入 OpenKG 网站。

猜你喜欢

转载自blog.csdn.net/TgqDT3gGaMdkHasLZv/article/details/130695361
今日推荐