基于大语言模型的问答技术研究进展综述

基于大语言模型的问答技术研究进展综述 文森 1,2,钱力 1,2,3,胡懋地 1,2,常志军 1,2 1 (中国科学院文献情报中心 北京 100190) 2 (中国科学院大学经济与管理学院信息资源管理系 北京 100190) 3 (国家新闻出版署学术期刊新型出版与知识服务重点实验室 北京 100190) 摘要: 【目的】全面回顾和概述基于大语言模型的问答技术发展现状、机制原理以及应用趋势,为后续开展相 关研究提供参考借鉴。 【文献范围】选取与基于大模型的问答技术相关的 73 篇文献。 【方法】系统梳理大语言模型的发展现状、参数高效微调策略,分别从面向简单问题的检索增强生成问 答推理以及面向复杂问题的提示工程问题推理两方面,深入解析各技术的原理机制、应用价值与存在问 题。通过定性分析,全面概述基于大语言模型的问答技术研究进展,并提出未来研究方向。 【结果】开源预训练大语言模型不断涌现,高效微调策略可显著提升模型垂直领域适配性。借助文本嵌 入与近似最近邻检索技术,检索增强生成技术可有效提升问答可解释性与可信度。借助精心构造的提示 工程,可大幅拓展大模型的复杂问题推理能力。 【局限】大模型相关研究发展迅速,相关调研工作可能未覆盖完整。 【结论】基于大语言模型的问答技术在语义表示、复杂推理等多个方面均取得显著进展,融合外部知识 的检索增强生成技术与提示工程技术是当前大模型领域的主要研究热点,未来研究工作可在生成内容可 控、可信等方面展开深入探索。 关键词:大语言模型;问答技术;向量检索;提示工程 分类号:TP391.1,TP18 DOI: 10.11925/infotech.2023-0839. A Survey of Research Progress of Question Answering Technology Based on Large Language Model Wen Sen1,2,Qian Li 1,2,3,Hu Maodi1,2,Chang Zhijun1,2 1 (National Science Library, Chinese Academy of Sciences, Beijing 100190, China) 2 (Department of Information Resources Management, School of Economics and Management, University of Chinese Academy of Sciences, Beijing 100190, China) 3 (Key Laboratory of New Publishing and Knowledge Services for Scholarly Journals, Beijing 100190, China) Abstract: [Objective] This paper comprehensively reviews and outlines the current development status, mechanism principles and application trends of knowledge question answering technology based on large language models, 网络首发时间:2023-11-13 16:34:31 网络首发地址:https://link.cnki.net/urlid/10.1478.G2.20231110.1612.002 2 数据分析与知识发现 to provide references for subsequent research on large language models. [Coverage] A comprehensive assessment of 73 pertinent papers and models pertaining to question answering techniques within the domain of large language models has been meticulously undertaken and scrutinized. [Methods] The development status of large language models and efficient-parameter fine-tuning strategies were systematically summarized. Retrieval-augmented generation question answering inference for simple questions and prompt engineering inference for complex questions were analyzed in detail regarding the principles, values, and existing problems. A qualitative analysis was conducted to comprehensively outline the progress of question answering techniques based on large language models and propose future research directions. [Results] Large language models are rapidly evolving with emerging open-sourced pretrained models. Efficientparameter fine-tuning strategies can significantly improve model adaptability to vertical domains. Retrievalaugmented generation techniques leveraging text embeddings and approximate nearest neighbor search can effectively enhance explainability and credibility. With carefully designed prompts, the complex reasoning abilities of large models can be substantially expanded. [Limitations] The research on large language models develops rapidly, and the survey of related research work may not be comprehensive. [Conclusions] Question answering techniques based on large language models have made remarkable progress in semantic representation, complex reasoning, etc. Retrieval-augmented generation and prompt engineering are current research hotspots in integrating external knowledge into large models. Future research may focus on improving controllability, credibility, and other aspects of generated content. Keywords: Large language models; Q&A technology; Vector retrieval; Prompt engineering 1 引 言 信息技术的快速发展促进了第四范式下大数据时代的到来[1 。面对浩如烟海的数据信息, 如何更准确、快速地获取到所需知识却成为了愈发严峻的挑战[2 。尽管现有的搜索引擎与数 据库可以提供一定的帮助,但它们大多基于关键词匹配搜索,对于复杂查询或需要深入理解 语义内容的问题往往效果有限。且现有的语义检索也主要停留在匹配层面,并不能高效实现 语义理解和问答总结。这些限制进一步导致了知识获取效率的下降和知识利用效率不足。 面对信息检索的挑战,自然语言处理技术的发展为智能问答带来了新的可能性。大语言 模型(Large Language Model,LLM)可以更为高效、准确地理解人类提出的复杂语义问题, 为用户进行智能问答、文本生成提供技术支撑。但由于其自身解码器技术架构,生成结果存 在着一定的幻觉和误差。为了减少回答幻觉现象、提供回答参考依据,研究人员越加关注通 过融合外部知识来提升模型回答的准确性与真实性,为生成式大模型提供检索增强的事实引 导。因此,本研究旨在通过对相关文献与开源项目进行调研,系统总结基于大语言模型的问 答技术研究进展,从研究现状、基于检索增强的问答推理以及基于提示工程的问答推理三个 方面深入阐述基于大语言模型的问答技术相关原理机制与进展情况,并总结不足、提出未来 展望,以期为该领域的相关研究提供参考和借鉴。

2 现状研究 2.1 问答系统研究进展梳理 问答系统研究起步于20世纪50年代的图灵测试,经历了基于结构化数据库的专用问答系 统、基于大规模文档集的通用问答系统、基于问题答案对的问答系统、基于知识图谱的问答 系统以及最新的基于大语言模型的问答系统五个发展阶段。 20世纪60-70年代,伴随结构化数据库技术的发展,专用于回答特定领域内事实型问题 Data Analysis and Knowledge Discovery 3 的专用问答系统应运而生,典型问答系统如Baseball[3]和Lunar[4]等。它们通常采用人工设计 的规则模板,将自然语言问题转换为数据库查询语句,进而通过查询语句获取到查询结果。 这类问答系统覆盖范围有限,但实现了计算机利用自然语言界面回答特定领域问题的初步突 破。 20世纪90年代,随着互联网的蓬勃发展,大量非结构化文本文档如电子邮件、网页等涌 现,处理开放领域下各类自然语言问题的通用问答系统也随之出现。该阶段的关键技术主要 包括问句分类[5]、关键词提取[6]、文档检索[7]、候选答案筛选等,代表性问答系统如ALICE聊 天机器人[8],已开始具备一定的开放域问题解答能力。 21世纪以来,各类社交媒体平台上积累了大规模的问答数据,基于这些先验问答对的问 答系统得到快速发展,可以通过匹配相似问句或直接生成回复来解决新问题。关键技术包括 文本表示学习[9]、相似度计算[10]、回复生成等,主要类型包括FAQ问答系统和社区问答系统。 这类系统扩大了问答范围,并开始显现一定的对话交互能力。 近十年来,知识图谱作为结构化知识表达方式受到广泛关注。相应的知识图谱问答系统 通过解析问题并在知识图谱中搜索答案,可以利用丰富的实体关系进行多跳推理[11]。主要技 术包括实体链接[12]、关系提取[13]、语义解析[14]等,代表系统如Google Knowledge Graph[15]等。 知识图谱为问答质量与覆盖范围的提升提供了有力支持。 当前,大语言模型技术取得突破性进展,可以端到端地分析文本问题并产生自然流畅的 答复,这标志着问答系统向真正智能化方向发展。综上所述,问答系统通过不断解决关键技 术瓶颈,从专用系统到通用系统,从简单事实问答到复杂推理问答,其处理能力、覆盖范围 与交互智能性得以不断提升,正朝着模拟人类问答能力的终极目标持续演进。 2.2 大语言模型相关概念界定 近年来,深度学习技术、自然语言处理技术的发展为智能问答带来了新的可能性。2022 年底,OpenAI 公司推出了一款专注于对话问答生成的大语言模型 ChatGPT,标志着问答系 统进入到一个全新时代[16 。基于大语言模型的问答系统可以更为高效、准确地理解人类提出 的复杂语义问题,并且支持多源异构知识表达和多轮语义交互,可以实现更为智能化的问答 体验。 目前大语言模型并没有公认统一的概念定义。N Carlini等学者指出大语言模型由具有大 量参数(通常为数十亿以上)的神经网络组成[17 ,并使用自监督或半监督学习在大量未标记 文本上进行训练,具备通用能力,可以执行广泛的自然语言处理任务,包括文本摘要、翻译、 情感分析等。Wayne Xin Zhao等学者在综述中指出[18 ,大模型指的是在海量文本语料上训练、 包含至少数十亿级别参数的语言模型,例如GPT-3,PaLM,LLaMA等。 尽管许多学者主要依据模型参数量与所利用训练数据规模来界定与评估何为大语言模型, 然而迄今尚未确立一个被广泛认可的临界标准,用以明确定义何时方可将某一语言模型称之 为“大”。综合考量,大语言模型之范畴受到多重因素所制约,主要涵盖模型参数规模、训 练数据的广度与多样性,以及模型在实际硬件平台上运算所需计算能力。 然而,大语言模型与基于大语言模型的问答技术并非毫无二致。Jordan Hoffmann等学者 指出基于大语言模型的问答技术是一种利用大规模预训练语言模型来回答自然语言问题的方 法,该方法的核心思想是先用海量文本数据预训练出一个大语言模型,然后在海量问答数据 集上对该模型进行微调,使其适应下游问答任务,进而提供问答服务[19 。 大语言模型在纷繁复杂、类型多样的数据上训练得到,天然适应于各类自然语言处理任 务,而非仅适用于问答任务[20 。同时,原始训练出来的大语言模型缺乏对海量真实的人类问 答数据集的学习训练,并非完全适用于人类的问答场景,往往需要进一步微调优化,方可作 为问答系统投入使用,这也是目前各类大语言模型基本都配置了“base”基础版本与“chat” 4 数据分析与知识发现 问答版本的缘由所在。 2.3 主流开源大语言模型梳理 随着GPT-3的问世,大模型研究掀起了热潮。由于大模型对于庞大的计算能力和数据资 源的高度依赖,研究主要力量主要来自于工业界。但随着Meta公司、清华大学等发布了不同 参数规模的开源大模型,学术界也得以在有限的计算资源下积极参与进来。本研究通过文献 调研与广泛的资料搜集工作对目前主流的开源大模型基本情况进行了归纳,如下表所示(按 照发布时间升序排列)。 表 1 开源大模型研究现状 Table 1 Current Status of Research on Open Source Large Language Models 名称 发布时间 发布主体 参数规模 (B) 模型架构 训练数据 PaLM[21 2022.04 Google 8/62/540 解码器架构,使用 SwiGLU 激活函数、并行层技术、多 查询注意力机制、旋转向量 嵌入等技术进行优化。 公开可用的文本数据集, 包括英语 CommonCrawl 、 C4 、 Wikipedia 、 Books1 、 Books2TB 等,以及多种 编程语言的源代码,共计 7800 亿标记。 Flan T5[22 2022.10 Google 0.06/0.22/0. 77/3/11 基于 T5 的自回归语言模型, 使用了指令微调和思维链技 术进行优化。 使用了超过 1800 个不同 类型的 NLP 任务进行微 调,包括问答、文本生 成、文本分类、文本摘要 等。 Llama[23 2023.02 Meta 7/13/33/65 解 码 器 架 构 , 使 用 预 正 则 化、SwiGLU 激活函数和旋转 向量嵌入等技术进行优化。 Common Crawl 、 Github 、 Wikipedia 、 Books 、 ArXiv 、 StackExchange 等近 4.7T 数据。 Falcon[24 2023.05 Technology innovation institute 1/7/40 解码器架构,使用旋转位置 编码,多查询注意力,Flash Attention 等技术等。 公开可用的文本数据集, 包括英语和欧洲语言的 RefinedWeb 、 Books 、 Conversations 、 Code 、 Technical 等 共 计 约 2.8TB。 ChatGLM2 2023.06 清华大学 6/12/32/ 66/130 GLM 架构,结合 FlashAttenti on 算法、多查询注意力机 制、混合目标函数、人类偏 好 对 齐 训 练 等 技 术 进 行 优 化。 6B 级训练数据为 1.4T 中 英标识符的预训练,中英 文比约为 1:1。 Data Analysis and Knowledge Discovery 5 BaiChuan 2023.07 百川智能 7/13 解码器架构,采用了和 LLaM A 一样的模型设计,使用了 F lashAttention 算法、多查询注 意力机制、RMSNorm、混合目 标函数等技术进行优化。 公开可用的中英文数据和 自行抓取的中文互联网数 据,以及部分高质量知识 性数据,共计约 1.4 万亿 标记。 Llama2[25 2023.07 Meta 7/13/70 解码器架构,在 Llama 技术 框架技术上,采用了Ghost A ttention 算法,以改善模型的 多轮对话一致性。 在 2 万亿个数据标记上训 练。 大语言模型领域,知名度最高的当属是openAI公司开发的GPT系列模型。其中基于 transformer的解码器架构训练而来的GPT-1是一个单向语言模型,发布于2018年,模型参数 规模仅为1.17亿[26 。在此基础上,GPT-2于次年发布,该模型有近15亿个参数[27 。在此期间, 基于编码器架构的语言模型、基于解码器架构的语言模型与基于编码器-解码器双向语言模 型三分天下。突破性地,Brown等学者于2020年发布了GPT-3模型,该模型参数达到了惊人 的1750亿规模[28 ,研究人员在实验过程中发现,随着模型参数量以及训练数据规模量的增加, 大模型的表现也往往随之提升,乃至出现了“涌现”能力[29 ,涌现能力可以理解为参数量达 到一定量级后,模型具有了复杂的推理能力。 在此发展过程中,解码器架构逐渐主导了大语言模型的发展。基于解码器架构的“大数 据+大参数”大语言模型出现的涌现能力,将编码器以及编码器-解码器架构的领域任务适配 优势给拉平甚至有所超越,这也反应出海量文本数据天然蕴含着大量的自然语言处理任务, 进行更为充分学习训练后的解码器架构大语言模型往往具备更强、更为通用的零样本拟合性 能。然而仅通过增加参数数量和训练数据规模也不能确保模型效果得到提升。以2021年谷歌 推出的Switch Transformer模型为例,其参数规模高达约1.6万亿,是首个万亿参数级别的大 模型[30 ,但其生成效果却远未达到预期水平。相比参数量巨大但训练不充分、算法不合理、 数据质量低的大模型,一个参数量适中的、但结构设计合理并针对特定任务进行了优化的模 型,往往能够带来更好的效果。 2.4 大模型参数高效微调策略研究 大语言模型在海量文本数据上训练而来,天然适应各种自然语言处理任务。然而直接将 原始训练而来的大语言模型用于问答任务上,效果往往不尽如人意。为了更好地适应特定领 域的问答任务,需要进一步在大规模、高质量的聊天对话数据中进行训练,将外部知识内化 融合到大语言模型参数中,使其进一步提升问答能力。与传统的语言模型微调不同,微调大 模型则需要使用更为海量、高质量的数据,以及更高的计算资源方可实现大模型微调。 Sanyuan Chen等人[31 讨论了微调大模型可能会导致严重的灾难性遗忘,因为具有复杂架构的 大模型在微调过程中更有可能忘记之前学到的知识,并过度适应目标领域、特定任务。而重 新开始训练大模型需要大量高性能GPU,这对于学术研究者来说难度极大。 为了应对上述问题,研究人员开始探索参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)技术。PEFT技术的目标是通过最小化微调参数和计算复杂度,提高预训练模型在新 任务上的性能的同时,也不出现严重的灾难性遗忘问题,以实现在提升模型效果的同时,也 能显著缩短模型训练时间和计算成本的目标。 表 2 常见参数高效微调技术总结 Table 2 Summary of Parameter-Efficient Fine-Tuning Technology 名称 提出时间 技术简介 提出作者 6 数据分析与知识发现 Adapter Tuning 2019 Adapter Tuning 在预训练模型内部的网络层之间添加新的网络层 或模块来适配下游任务。 N Houlsby 等[32 Prefix Tuning 2021.01 在模型输入前添加一个连续的且任务特定的向量序列,固定预 训练语言模型的所有参数,只更新优化特定任务的前缀。 Xiang Lisa Li 等[33 P-Tuning 2021.03 固定大模型参数,利用多层感知机和 LSTM 对提示词进行编 码,编码之后与其他向量进行拼接之后正常输入大模型。 Xiao Liu 等 [34 Prompt Tuning 2021.04 Prompt Tuning 固定整个预训练模型参数,只允许将每个下游任 务的额外 k 个可更新的标记前置到输入文本中,也没有使用额 外的编码层或任务特定的输出层。 Lester B 等 [35 LoRA (Low-Rank Adaptation) 2021.06 冻结预训练模型的权重,并在每个 Transformer 块中注入可训 练层(称为秩分解矩阵),通过学习小参数的低秩矩阵来近似 模型权重矩阵 W 的参数更新,训练时只优化低秩矩阵参数。 Edward J. Hu 等[36 P-Tuning v2 2021.10 在多层加入了提示词标记作为输入,使得 Prompt Tuning 能够 在不同参数规模的预训练模型、针对不同下游任务的结果上都 达到类似精调的结果。 Xiao Liu 等 [37 AdaLoRA 2023.03 对 LoRA 的一种改进,它根据重要性评分动态分配参数预算给权 重矩阵,AdaLoRA 将关键的增量矩阵分配高秩以捕捉更精细和任 务特定的信息,而将较不重要的矩阵的秩降低。 Qingru Zha ng 等[38 QLoRA 2023.05 使用一种新颖的高精度技术将预训练模型量化为 4 bit,然后 添加一小组可学习的低秩适配器权重,这些权重通过量化权重 的反向传播梯度进行微调。 Dettmers T 等[39 目前,主流的参数高效微调策略技术基本可以分为三大类,分别是Adapter、Prefix Tuning以及LoRA类,它们各具特点,在模型结构中所嵌入的位置也有所不同,具体情况见 于图1。在这些技术中,Adapter类的参数高效微调技术通过在预训练模型的各层之间插入了 较小的神经网络模块,这些新增的神经模块被称为“适配器”,在进行下游任务的微调时, 只需对适配器参数进行训练便能实现高效微调的目标,在此基础上衍生出了AdapterP[40 、 Parallel[41 等高效微调技术;Prefix Tuning类PEFT技术通过在模型的输入或隐层添加 k 个额 外可训练的前缀标记,模型微调时只训练这些前缀参数便能实现高效微调的目标,在此基础 上衍生出了P-Tuning、P-Tuning v2等高效微调技术;LoRA类PEFT技术则通过学习小参数的 低秩矩阵来近似模型权重矩阵 W 的参数更新,微调训练时只需优化低秩矩阵参数便能实现 高效微调的目标,在此基础上衍生出AdaLoRA、QLoRA等高效微调技术。 Data Analysis and Knowledge Discovery 7 图 1 三类参数高效微调策略图析 Figure 1 Diagram Analysis of Efficient-Parameter Fine-Tuning Strategies 3 基于检索增强生成的问答推理 生成式语言模型通常依赖大量的参数来存储知识,面对没有训练学习过的问题时,往往 会给出虚构、编造的回答,从而出现“幻觉”现象。为解决该问题,提升知识回答的可信度 与准确度 ,检索增 强生成技 术 应运而 生。检索 增强生成 技术( Retrieval-Augmented Generation,RAG)由Meta AI[42 于2020年所提出,检索方法特指向量检索,RAG技术利用文 本嵌入模型和生成模型之间的协同作用,将带有参数记忆的隐性知识seq2seq模型与带有非 参数记忆的外部知识库相结合起来,利用嵌入模型将输入问题向量化,然后结合知识向量数 据库以及高效、准确的近似最近邻搜索算法进行搜索,将相关检索结果与用户提问共同输入 给大模型,以期获得更为准确的文本生成结果。 检索增强生成技术通过结合文本嵌入模型与生成模型实现语义匹配检索与自然语言生成 的有机融合,提高了问答系统的可解释性与可信度。该技术呈现出两大显著优势:首先,知 识无需隐式嵌入于模型参数,而是以即插即用的方式显式引入,具备良好的可扩展性;其次, 对比从零开始生成文本,基于检索增强的文本生成以检索得到的文档作为参考依据,便于溯 源查证。 为使检索增强生成技术发挥最大效用,选择合适的文本嵌入模型与快速准确的语义检索 方法至关重要。以下将重点阐述文本嵌入模型的发展现状、文本嵌入在检索式问答任务中的 应用价值,以及近似最近邻搜索等语义检索技术,以更深入地解析检索增强生成所需的语义 表示与检索技术基础。这有助于全面理解检索增强生成技术内涵,为优化基于大语言模型的 问答系统提供理论支撑。 8 数据分析与知识发现 3.1 语义表示技术 语义表示是一种广泛的概念,指的是将文本信息转换为更丰富、更有意义的表示形式, 以便计算机能够理解文本的含义[43 。文本嵌入技术作为实现语义表示的重要方式,通过将文 本投影到向量空间进而测量出文本之间语义距离,是自然语言处理领域最新的成果之一[44 。 对于向量检索而言,文本嵌入模型的好坏、合适与否更是直接决定了检索匹配程度的高低, 所以选择合适的文本嵌入模型,对于提升问答准确度与可信度至关重要。 文本嵌入技术的发展可以追溯到20世纪50、60年代计算语言学研究,其中最著名的则是 Harris在1954年提出的分布式语义理论[45 。该理论认为单词的语义可以通过它们在上下文中 的分布来表示,即单词含义可从其周围的词语中推断出来。在计算机科学领域,最早的文本 嵌入技术可以追溯到20世纪80、90年代的神经网络研究。其中最著名的是Bengio在2000年提 出的神经语言模型[46 ,该模型通过单词的上下文来预测下一个单词,用以生成大规模文本的 嵌入向量表示。随着深度学习技术不断发展,重要的文本嵌入算法如Word2Vec、GloVe和 FastText等被提出。这些算法通过训练神经网络、进行矩阵分解等方法学习文本的静态嵌入 表示,目前这些方法已在各种自然语言处理任务中得到广泛应用。 近年来,随着自然语言处理技术的进一步发展,尤其是transformer与注意力机制的出现 后,文本嵌入技术得到了更进一步的发展。ELMo、BERT以及GPT等语言模型依托于注意力 机制生成动态的上下文相关嵌入向量表示,这些模型往往能更为有效地捕捉文本的语义信息 和上下文特征。在如今的大模型时代,文本嵌入技术焕发出新的价值,主要体现在解决大模 型所面临的标记输入限制方面。对于长篇文本而言,难以一次性输入到语言模型中,因此需 要将文本分割成较小的块或片段。然而,这种分段策略可能引发不一致性和连贯性问题,从 而进一步降低所生成文本的质量。而文本嵌入技术则可以将单词和短语表示为高维向量,进 而以紧凑高效的方式编码输入文本的上下文信息,语言模型便可以使用上下文编码信息来生 成更为连贯和适当的输出文本。目前公开的文本嵌入模型调研归纳如下表所示。 表 3 文本嵌入模型调研 Table 3 Research on Text Embedding Models 名称 提出时间 模型特点 预训练语料库 提出作者 Word2vec 2013 两种基本模型(Skip-Gram 和 CBOW), 通过最大化词与其上下文词之间的共现 概率,来学习词嵌入表示。 谷歌新闻数据集等 Tomas Mikolov 等 [47 GloVe 2014 基于全局词频统计,充分利用全局统计 信息,融合了局部窗口方法和全局矩阵 分解方法。 维基百科、新闻文章、 书籍等 Pennington J 等[48 CoVe 2017 使用序列到序列模型的编码器预训练词 嵌入,能获取丰富的上下文信息。 英文维基百科、 书籍语料、 WMT 机器翻译数据集 McCann 等[49 ELMo 2018 考虑了词的上下文信息,每个词的嵌入 是所有层的加权和,可以生成更丰富的 词嵌入。 维基百科等数据 Matthew Peters 等 [50 BERT 2018 通过 Transformer 架构,能够获取句子的 双向上下文信息。 BooksCorpus、 维基百科等 Jacob Devlin 等[51 Data Analysis and Knowledge Discovery 9 GPT 2018 基于 Transformer 架构,通过预测下一个 词的方式来学习词嵌入。 BooksCorpus、 维基百科等 Alec Radford 等 XLNet 2019 通过自回归方法,解决了 BERT 中的掩蔽 问题,能获取更全面的上下文信息。 BooksCorpus、Wikiped ia、Giga5、ClueWeb20 12-B、CommonCrawl 等。 Zhilin Yang 等[52 ERNIE 3 2021 融合了各种知识图谱,支持多模态输 入,增强了模型的理解能力。 中文百科、百度百科、 百度新闻、百度贴吧 等。 Sun Y 等[53 instructor 2022 一种指令微调文本嵌入模型,可以通过 简单地提供任务指令来生成针对任何任 务(例如分类、检索、聚类、文本评估 等)和领域(例如科学、金融等)的文 本嵌入,而无需任何微调。 包含 330 个来自 Super Natural Instructions 的 数据集跟 30 个用于句 向量训练的数据集的数 据集集合 MEDI。 H Su 等[54 E5 2022 E5 采用两阶段的训练方式,基于弱监督 预训练和对比学习训练而成。 2.7 亿文本对数据集 CC Pairs。 Liang Wang 等[55 总体而言,随着时间的不断迭代,模型预训练语料规模以及文本嵌入模型参数规模的不 断增大,文本嵌入模型的向量化表示效果呈现出越来越好的趋势。对于检索任务而言,由于 问题与答案的匹配不能仅靠文本相似度进行判断,且回答可能是单词、短语、句子、段落乃 至长文本,回答长度不一,传统依靠句子相似度、单词相似度或者文档相似度匹配的方法并 不能直接适用于问答检索领域的文本嵌入表示。根据huggingface公布的大规模文本嵌入基准 排行榜[56 ,在多个检索任务上E5文本嵌入模型都位居前三名,该模型凭借着高质量的训练 数据、两段式的训练策略、精心设计的微调方法、一致性过滤等技术手段在开源文本嵌入模 型中处于领先地位。 3.2 语义检索技术 语义搜索技术是指在搜索过程中,利用自然语言处理技术分析查询文本和文档的语义信 息,实现查询意图与文档语义内容之间的语义匹配,从而返回更加相关和符合查询意图的搜 索结果[57 。最大内积搜索作为重要的语义搜索技术,它通过最大化查询向量与文档向量的内 积来实现文档排序和语义匹配[58 ,为检索增强生成技术提供了底层搜索技术支撑,用于在海 量知识向量库中快速精准地匹配到与用户提问相关的文本段落。然而最大内积搜索需要计算 查询与所有文档的向量相似度,计算量过大、时间成本高昂。为了加速检索过程,平衡检索 效率与检索速度,近似最近邻搜索成为目前向量数据库所使用的主流检索方法,诸如FAISS、 Chroma、Milvus等向量数据库都已支持高速的近似最近邻搜索。该方法运用分而治之的思想, 将原始数据经过映射方法划分到多个不同的向量空间,在较低的准确性损失下,返回前k个 最近邻,从而换取搜索速度提升。根据不同的算法基本思想,近似最近邻搜索可以分为四大 类别,分别是基于局部敏感哈希的方法、基于空间划分的方法、基于向量压缩的方法以及基 于图的方法,四种方法的原理与特点对比信息如下表所示。 表 4 四类近似最近邻搜索方法对比表 Table 4 Comparison Table of Four Approximate Nearest Neighbor Search Algorithms 类别 典型算法 基本原理 优点 缺点 检索速度 检索准确率 10 数据分析与知识发现 基于局 部敏感 哈希[59 符号随机投影、查 询感知局部敏感哈 希等 使用哈希函数将高维数 据映射到桶中,相似数 据更可能被映射到同一 个桶。 在高维空间中具有 较好的效果,适用 于图像、音频等数 据。 对于维度较低的 数据检索效果较 差。 几毫秒到数百毫 秒内。 60%-80%,受到哈希函 数、数据规模等因素的 影响。 基于空 间划分 [60 随机 k 维树、 k 均值树、 倒排索引等 将数据空间通过树形结 构递归划分,以在有限 范围内进行搜索。 对于维度较低的数 据和均匀分布的数 据点效果良好。 在高维空间中存 在“维数灾难”问 题。 几毫秒到几百毫 秒内。 检索准确率在低维数据 上可达 95%以上。但在 高维数据上可能下降到 30%-50%左右。 基于向 量压缩 [61 正交乘积量化、 标量量化等 使用矢量量化或标量量 化 方 法 对 数 据 进 行 降 维,以减少索引的大小 并节省内存。 能够在一定程度上 减少存储和计算成 本。 压缩后的向量可 能会失去一些信 息,从而影响准 确性。 几百毫秒到秒级 范围内。 50%-85%之间,但随着 维数的增加,检索准确 率会降低。 基于图 [62 导航小世界、 近邻图搜索等 构 建 数 据 之 间 的 图 结 构,沿着图中相似节点 的路径搜索。 检索召回率和速度 最好,能够捕捉数 据点之间的复杂关 系,适用于结构化 数据。 构 造 图 难 度 较 大,搜索速度较 慢。 几百毫秒到秒级 及以上。 70%-90%之间,但随着 数据量的增加,检索速 度和检索准确率都有可 能下降。 据表可知,近似最近邻搜索领域内涵盖了基于局部敏感哈希、基于空间划分、基于向量 压缩以及基于图等四类方法,每一类方法均呈现出独特的优势和限制,以适应不同数据特征 和搜索需求。具体而言,基于局部敏感哈希方法在高维数据中展现出显著的效能,支持多样 的相似性度量,但在低维情境下表现相对欠佳,且其应用需要复杂的参数调整与哈希函数设 计。对于基于空间划分方法而言,其在低维且数据均匀分布的场景下表现突出,然而在高维 空间中可能受制于“维数灾难”问题,对数据分布的先验信息要求较高。基于向量压缩方法 在存储和计算成本上具备优势,但压缩过程可能引发信息损失,因此需在压缩率和搜索质量 之间做权衡。基于图方法可有效处理数据点之间的复杂关系,特别适合处理结构化数据,但 也面临着图构建难度较大、搜索时间复杂度高等挑战。 3.3 小结 本章节通过对文本嵌入模型与近似最近邻搜索技术的系统梳理,可以看出语义表示与语 义检索技术在基于检索增强生成的问答推理中发挥着关键作用。文本嵌入模型在语料规模与 模型设计等方面不断优化,已能较好地表达语义信息;近似最近邻搜索作为快速精准的向量 检索方法,也日趋成熟,基于图方法正在兴起。综上可知,检索增强生成所需的语义表示与 检索技术基础较为成熟,结合大语言模型的生成能力,检索增强生成技术可以发挥各自技术 优势,实现知识表达与知识检索的有效融合。这为问答系统提供了外部知识的即插即用特性, 能够显著提升问答的可解释性和可信度,有助于问答系统获取更丰富相关的外部知识,从而 生成更符合事实的回答。但是目前仍存在着文本嵌入模型表达能力有限、语义匹配精度不高 等问题,未来可继续探索设计更优文本嵌入模型和多源异构知识表示以提升问答语义理解能 力、设计更为高效地检索方法与优化近似最近邻搜索算法以实现高效准确的向量检索等。 4 基于提示工程的问答推理 对于简单问题问答任务而言,大语言模型借助检索增强生成技术便已能够通过向量检索 查询获取到相应信息,从而生成更准确可信的答案。然而对于复杂问题问答任务而言,传统 检索方法的优势逐渐减弱,语义理解不足的弊端也显现出来,此时则需要运用提示工程技术 进一步发挥大语言模型的语义理解能力。众多研究者也已发现,利用提示工程技术将简洁而 Data Analysis and Knowledge Discovery 11 高效的自然语言描述纳入模型中,便能够实现对复杂问题的知识推导,从而有效提升复杂问 题回答的完整性和准确性。目前常见的提示工程技术主要可分为任务规划型和反思评估型两 类,该技术通过将复杂问题分解、反思评估优化,将推理过程纳入其中,从而获得更全面准 确的答案。 4.1 任务规划类提示工程技术 面对较为复杂的任务和需求,往往需要在明确问题的情况下,对复杂问题进行分解与规 划。大模型提示工程技术的核心在于用户通过编写提示词,引导大模型按照提示词的逻辑和 思考方式进行问题分析和解决。在任务规划领域,提示工程技术目前主要包括以下几种类型: (1)思维链(Chain of Thought,CoT):该方法通过生成一系列短句来逐步描述推理逻 辑,让大模型进行逐步思考,从而利用更多的测试时间计算将困难任务分解为更小、更简单 的步骤,将大任务转化为多个可处理的任务,进而得到最终答案[63 。该方法通过逐步推理引 导的方式,显著提高了数学单词问题和符号操作等复杂任务的回答准确率。然而,该方法在 提示词中强加线性思考逻辑,从根本上限制了大模型的推理能力。 (2)自我一致性(Self-Consistency with CoT,CoT-SC):该方法在思维链的基础上进 行改进优化,通过先采样生成多条不同的推理路径,然后汇总得到一致性最高的答案,而不 是仅采用贪心解码得到单一推理路径[64 。该方法允许探索不同的推理路径,通过生成多个独 立的思维链并选择输出效果最好的一个,但是仍然无法在推理路径中进行局部探索,如进行 回溯等。 (3)LLM+P:该方法主要依赖于外部的经典规划器来进行长期规划,通过使用规划领 域定义语言(Planning Domain Definition Language,PDDL)作为中间接口,用于描述规划问 题。在这个过程中,大模型首先将问题转化为“问题PDDL”,然后请求经典规划器基于现 有领域PDDL来生成PDDL规划,然后将PDDL规划转化回自然语言,输入到大模型中得到解 答[65 。该方法将保证逻辑正确的经典规划器优势与大模型强大的语义理解能力相结合,使代 理能够解决对话描述的复杂规划任务。但是该方法严重依赖于领域专业知识来提供动态规划, 并且需要一个示例问题来指导语言模型,实现难度较高、自主性较低。 (4)思维树(Tree of Thoughts,ToT):该方法的核心思想在于通过在每个步骤中探索 多种推理可能性,从而扩展思维链。它首先将问题分解为多个思考步骤,并在每个步骤中生 成多个思考,从而形成一个树状结构[66 。搜索过程可以采用广度优先搜索或深度优先搜索, 而每个状态都通过分类器或多数投票进行评估。具体而言,该提示工程技术使得大模型遵循 以下四个步骤:①将中间过程分解为思维步骤;②通过思维生成器从每个状态生成候选想法; ③通过状态求值器启发性地评估状态;④根据深度搜索和广度搜索算法选择最优方案进行回 答。该方法将推理过程建模为一棵树,可以实现回溯、路径择优等功能,但是树结构仍然存 在着严格的逻辑结构限制,一定程度上仍限制了复杂问题的推理能力。 (5)思维骨架(Skeleton of Thought,SoT):该方法的核心思想在于利用提示引导大语 言模型先生成答案框架,然后并行调用API或批量解码来并行扩展每个框架点的内容,从而 加速答案生成[67 。该框架采用编号列表的形式,从框架中提取出编号及简要内容作为各个框 架点,然后并行地提示语言模型扩展每个框架点的内容,最后将所有框架点的扩展内容拼接 起来,形成最终完整的答案。该方法通过并行生成答案来显著加快大语言模型的推理速度, 它还通过鼓励模型考虑多个角度,提高了某些问题类型的答案多样性和相关性。但是该方法 很难解决需要逐步推理的问题,比如数学问题等。 (6)思维图(Graph of Thoughts,GoT):该方法的核心思想是将大语言模型的推理过 程建模为任意图形,将思想看作顶点,思想之间的依赖关系看作边[68 。该技术使得大模型遵 循以下步骤进行推理回答:①将任务分解为子任务,每个子任务由一个顶点表示。②分别解 12 数据分析与知识发现 决子任务,添加代表子任务解决方案的新顶点。③评分和排序各个子任务的解决方案。④选 择性地聚合顶点,即合并子任务的解决方案,形成新的顶点。⑤重复上述步骤,直到形成完 整的解决方案图。⑥从解决方案图中选择得分最高的解决方案作为最终结果。该方法将推理 建模为任意图,可以实现聚合、回溯等推理,是目前最为灵活的提示结构,但是实现难度较 大,需要更为仔细的人工设计。 任务规划类的提示工程技术主要包括思维链、自我一致性思维链、LLM+PDDL规划器、 思维树、思维骨架和思维图等。这些方法从线性推理逐步发展到树状和图状结构推理,灵活 性与自主性不断提升,实现难度也随之增加。总体而言,此类提示工程技术正朝着更灵活、 更自主、更人类化的方向发展,以便应对更为复杂的任务和场景。当前的关键挑战在于如何 在保证推理质量的同时,提高提示工程技术的自主性和人机协作性。未来此类提示工程技术 则需要进一步模拟人类思维,实现更自然、更智能的人机互动。 4.2 反思评估类提示工程技术 当前大模型在解决复杂问题时,单纯依靠一次性生成的回答往往难以做到准确完整,往 往需要通过自我反思与评估纠正使大模型不断改进过去的行动决策来不断优化回答准确性与 完整性。在反思评估领域,提示工程技术目前主要有以下几种类型: (1)ReAct(Reasoning and Acting):该方法通过将动作空间扩展为任务特定的离散动 作和语言空间的组合,将推理和行动融合到大模型中[69 。任务特定的离散动作使大模型能够 与环境进行交互,而语言空间的组合则可以促使大模型生成自然语言的推理轨迹。ReAct提 示模板包含了明确的大模型思考步骤,分别是“思考、行动、观察”,并不断循环直至得到 最优解。该方法通过整合与维基百科等外部环境互动的行动和观察反馈,生成了更扎实和事 实上更准确的推理。然而,ReAct中交错推理、动作和观察的约束也降低了推理公式的灵活 性。 (2)Self-Ask:该方法主要包含follow-up、immediate answer步骤,通过让大模型自行判 断决定是否需要将问题以及回答步骤进行拆分,整体上保持着“总-分-总”的简单回答逻辑 [70 。该方法同思维链类似,都属于启发性提示方法,区别在于该方法在回答复杂问题之前将 其显式分解为简单的子问题,而思维链允许模型在输出最终答案之前“通盘讨论”,没有明 确地将问题分解与子问题的回答分开。因此该方法使得模型更容易以简洁、可解析的格式陈 述最终答案。该方法的缺点在于计算步骤和时间较长,在复杂的构图问题上,表现仍然远远 低于人类水平。 (3)Reflexion:该推理框架采用标准的强化学习设置,其中奖励模型提供简单的二元 奖励,行动空间则遵循ReAct的设置。在这个设置下,任务特定的动作空间通过语言扩展以 实现更为复杂的推理步骤。在每个动作执行之后,代理计算启发式函数用于决定行动轨迹是 否低效或是否包含幻觉,并根据自我反思的结果选择性地决定是否重置环境以开始新的试验 [71 。该方法允许语言模型代理通过自我反思和持久记忆快速有效地从试错中学习,而不像传 统的强化学习方法那样需要从大量的训练样本进行昂贵的模型微调。但该方法在很大程度上 仍严重依赖于语言模型的自我评估能力且与其他策略优化技术一样,局部极小问题仍持续存 在。 (4)Plan-and-Solve:该方法本质上是先计划再执行,即先根据用户的问题,让大模型 设计出执行计划,把用户的问题分解成一个个的子任务,然后再执行各个子任务,最后合并 输出得到结果[72 。该方法通过详细的分解提示指引,使语言模型能够显式地设计解决给定问 题的计划,更好地发挥语言模型的多步推理能力,但需精心设计提示语句,且无法避免原有 的语义理解错误情况的出现。 (5)DTG(Deliberate then Generate):与现有提示方法不同的是,该方法不仅提供正 Data Analysis and Knowledge Discovery 13 确信息,而且还会提供包含错误的信息来引导模型进行自我思考判断。该方法通过加入反馈 机制让模型自主发现文本中的错误并进行改正,进而提高语言使用能力[73 。具体来说,该方 法可以分为三个步骤:①清晰明确地说明所需的任务,并提供生成论证的指导;②提供一个 合成文本作为候选输出;③通过鼓励模型发现潜在的错误并经过自我思考判断改进输出,推 动训练过程。该方法是一种简单且有效的提示工程技术,可以使语言模型能够在最终文本生 成之前进行检测和更正错误,能够有效地避免错误的发生。然而,该方法正确错误与否的判 断标准可能来源于预训练大语言模型固有偏见。 反思评估类的提示工程技术主要包括ReAct、Self-Ask、Reflexion、Plan-and-Solve以及 DTG等。其中ReAct通过行动空间扩展实现推理与交互的融合;self-Ask明确将问题分解为子 问题后逐一回答;Reflexion利用试错学习和启发式函数进行自我检验;Plan-and-Solve先计划 再解决的策略明确分解问题;DTG则提供包含错误信息的反馈来引导模型自我检验。这些方 法都在一定程度上提高了模型的推理能力,但各有优劣。总体上,反思评估类提示工程技术 因其简洁高效已成为大模型研究热点,它实现了用户与模型的自然交互,同时引导模型进行 逻辑推理,从而显著提高了大模型在复杂问题上的准确性和完整性。未来此类提示工程技术 则需要往更好地模拟人类思维、实现开放域的复杂推理、规避模型自身的偏见等方向探索。 4.3 小结 本章系统梳理了基于大语言模型的复杂问题问答推理的提示工程技术。提示工程技术通 过设计引导性的自然语言描述,可以有效地发挥大模型的复杂推理能力,显著提高复杂问题 的回答质量。提示工程技术可以分为任务规划类和反思评估类,任务规划类提示从线性推理 的思维链发展到树状结构的思维树,以及任意图形结构的思维图,实现了复杂任务分解与推 理路径的探索。反思评估类提示引入了反馈机制,通过自我检验思考来纠正推理偏差,实现 回答的不断优化。这些提示工程的提出极大拓展了大模型的推理边界。当前提示工程面临的 主要挑战在于如何在保证推理质量的同时,提高提示工程的自主性、开放性以及可控性。未 来研究可继续深化对复杂推理过程的模拟,建立标准化的数据集,开发通用的提示搜索与优 化算法等。 5 总结与展望 5.1 研究总结 本研究通过对基于大语言模型的问答技术研究进展的系统梳理,总结了当前该领域的核 心技术内容与发展现状。在大语言模型方面,目前已有众多不同规模的开源预训练语言模型 面世,为学术研究提供了有力支撑,这些模型大多采用了优化的解码器架构,并在模型设计 上进行了创新,如采用旋转词向量嵌入、并行层技术、多头查询注意力等,但在拓展输入长 度、提升推理速度等方面仍需进一步研究模型架构的创新设计。参数高效微调策略已成为优 化模型垂直领域、特定任务适配性的重要手段,LoRA类参数高效微调技术已较为成熟,这 为面向问答服务的大模型效果提升和应用落地提供了技术支撑;在基于检索增强生成的问答 推理方面,文本嵌入模型发展日趋成熟,能表达丰富的文本语义信息,其中面向检索问答式 任务而言,E5、Instructor等文本嵌入模型效果较优。近似最近邻搜索作为向量检索方法也取 得长足发展,尤其是基于图方法的检索,已有大量实验证明将大语言模型与检索增强生成技 术相结合可以显著提升问答可解释性和可信度,但目前向量检索的匹配精度仍有待提高,检 索结果损耗问题依然存在。在基于提示工程的问答推理方面,任务规划提示实现了从线性推 理到树状和图状结构推理的进步,推理灵活性不断增强。反思评估提示通过嵌入检测纠错提 示词便能明显提升复杂问题回答的完整性和准确性,目前提示工程尚处于探索阶段,提示工 14 数据分析与知识发现 程的稳定性与可控性等仍面临着巨大挑战。 总体而言,基于大语言模型的问答技术取得了飞速发展,在模型设计、高效微调、语义 表达、复杂推理等多个方面均取得突破。检索增强生成技术作为当前研究热点,能显著提升 问答的可解释性和可信度;任务规划与反思评估的提示工程技术也大幅拓展了大模型的推理 边界。但是,知识表达能力与生成内容可信度的提升仍是当下的技术瓶颈,多源异构知识的 表示与控制也面临挑战,问答技术的应用范围与场景亦有待扩展。本研究通过较为全面系统 的文献调研和技术梳理,深入解析了基于大语言模型的问答技术内涵、发展历程与研究现状, 旨在为该领域后续研究的开展提供了参考指引。但本研究也存在着一定的局限性,研究覆盖 度有待提高,未来研究将继续跟踪新进展,以弥补当前工作的不足。

5.2 思考展望

基于大语言模型的问答技术发展迅猛,但仍存在一些亟待解决的问题。首先,大模型的 知识表达能力无法涵盖所有的领域知识,这导致大模型存在着一定的知识盲区,降低了特定 领域问答的准确性。其次,大模型生成回答存在着明显的“幻觉”现象,可解释性与可靠性 有待进一步提高。再则,大模型多轮交互仍存在着一致性问题以及知识遗忘问题。最后,大 模型应用的安全性和伦理规范亦需多加关注,避免大模型生成有毒、有害内容,是当前亟待 解决的难题之一。 展望未来,基于大模型的问答技术发展可持续关注以下方面:

(1)大语言模型方面, 可以继续探索创新模型架构设计,如增强模型对长文本的理解表达能力,通过引入更长序列 长度的自注意力机制来扩展输入长度,以支持语义更加连贯的长文本生成。同时,可以探索 提升模型推理速度的算法,如基于稀疏自注意力的高效计算等,以更好支撑交互式应用。此 外,预训练数据资源的构建质量直接影响模型效果,应继续优化数据过滤策略,不仅构建包 容性强的跨学科综合知识库,还需针对专业领域构建出系统完备的垂直知识库,从而拓展大 模型的知识覆盖面与专业性。

(2)大模型微调策略方面,可深入探索参数动态分配自适 应微调策略,即根据任务重要性动态调节模型组件的参数量,使关键组件获取更多参数资 源。此外,不同层级含义的迁移学习方法也值得深入研究,即高效区分迁移泛化知识与特定 知识,进而采取不同的微调策略。在保证效果的前提下,降低计算资源消耗也应成为一个持 续的研究方向。(3)语义表达与检索方面,应继续探索多源异构知识表示,如引入知识图 谱嵌入以提升文本间复杂关系的建模。此外,面向检索式问答任务的语义匹配表示学习方法 也仍需进一步创新,可尝试引入更多的外部知识或有监督信息,增强语义匹配的判别能力。

(4)复杂推理方面,应探索更符合人类思维的开放域复杂推理建模,突破现有推理框架对 逻辑路径的限制。此外,构建标准化的复杂推理数据可系统评估不同提示的效果。对可解 释性的考量也应引入推理过程中,避免固有偏见的生成

(5)提示搜索与优化方面,则可 尝试采用强化学习等方法实现,还可以探索深化多轮交互机制的方法机制,进而提升大语言 模型在问答对话中进行知识追踪、证据链推理以及自我纠错的能力。(6)问答系统应用方 面,可拓展应用场景,探索面向专业领域的个性化问答服务。此外,不断优化人机交互也至 关重要,可深入探索强化多模态理解,支持各类非文本证据,通过引入图像、音频、视频等 非文本数据,实现多源异构知识的统一表达,以实现更丰富、自然的交互体验。

Data Analysis and Knowledge Discovery 15 参考文献: [1 潘教峰, 张晓林. 第四范式: 数据密集型科学发现[M . 科学出版社, 2012. [2 Bawden D, Robinson L. The dark side of information: overload, anxiety and other paradoxes and pathologies[J . Journal of information science, 2009, 35(2): 180-191. [3 Green Jr B F, Wolf A K, Chomsky C, et al. Baseball: an automatic question-answerer[C //Papers presented at the May 9-11, 1961, western joint IRE-AIEE-ACM computer conference. 1961: 219-224. [4 Woods W A. Lunar rocks in natural English: Explorations in natural language question answering[J . 1977. [5 Li X, Roth D. Learning question classifiers[C //COLING 2002: The 19th International Conference on Computational Linguistics. 2002. [6 Mihalcea R, Tarau P. Textrank: Bringing order into text[C //Proceedings of the 2004 conference on empirical methods in natural language processing. 2004: 404-411. [7 Tellex S, Katz B, Lin J, et al. Quantitative evaluation of passage retrieval algorithms for question answering[C //Proceedings of the 26th annual international ACM SIGIR conference on Research and development in informaion retrieval. 2003: 41-47. [8 Wallace R S. The anatomy of ALICE[M . Springer Netherlands, 2009. [9 Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space[J . arXiv preprint arXiv:1301.3781, 2013. [10 Jeon J, Croft W B, Lee J H. Finding similar questions in large question and answer archives[C //Proceedings of the 14th ACM international conference on Information and knowledge management. 2005: 84-90. [11 Chen B, Sun L, Han X. Sequence-to-action: End-to-end semantic graph generation for semantic parsing[J . arXiv preprint arXiv:1809.00773, 2018. [12 Shen W, Wang J, Han J. Entity linking with a knowledge base: Issues, techniques, and solutions[J . IEEE Transactions on Knowledge and Data Engineering, 2014, 27(2): 443-460. [13 Zeng D, Liu K, Lai S, et al. Relation classification via convolutional deep neural network[C //Proceedings of COLING 2014, the 25th international conference on computational linguistics: technical papers. 2014: 2335-2344. [14 Berant J, Chou A, Frostig R, et al. Semantic parsing on freebase from question-answer pairs[C //Proceedings of the 2013 conference on empirical methods in natural language processing. 2013: 1533-1544. [15 Singhal A. Introducing the knowledge graph: things, not strings[J . Official google blog, 2012, 5(16): 3. [16 Liu Y, Han T, Ma S, et al. Summary of chatgpt/gpt-4 research and perspective towards the future of large language models[OL . arXiv preprint arXiv:2304.01852, 2023. [17 Carlini N, Tramer F, Wallace E, et al. Extracting training data from large language models[C //30th USENIX Security Symposium (USENIX Security 21). 2021: 2633-2650. [18 Zhao W X, Zhou K, Li J, et al. A survey of large language models[OL . arXiv preprint arXiv:2303.18223, 2023. [19 Hoffmann J, Borgeaud S, Mensch A, et al. Training compute-optimal large language models[OL . arXiv preprint arXiv:2203.15556, 2022. [20 钱力,刘熠,张智雄等.ChatGPT 的技术基础分析[J .数据分析与知识发现,2023,7(03):6-15. [21 Chowdhery A, Narang S, Devlin J, et al. Palm: Scaling language modeling with pathways[OL . arXiv preprint arXiv:2204.02311, 2022. [22 Chung H W, Hou L, Longpre S, et al. Scaling instruction-finetuned language models[OL . arXiv preprint arXiv:2210.11416, 2022. [23 Touvron H, Lavril T, Izacard G, et al. Llama: Open and efficient foundation language models[OL . arXiv preprint arXiv:2302.13971, 2023. [24 Penedo G, Malartic Q, Hesslow D, et al. The RefinedWeb dataset for Falcon LLM: outperforming curated corpora with web data, and web data only[OL . arXiv preprint arXiv:2306.01116, 2023. [25 Touvron H, Martin L, Stone K, et al. Llama 2: Open foundation and fine-tuned chat models[OL . arXiv preprint arXiv:2307.09288, 2023. [26 Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J . 2018. [27 Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J . OpenAI blog, 2019, 1(8): 9. [28 Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J . Advances in neural information processing systems, 2020, 33: 1877-1901. [29 Wei J, Tay Y, Bommasani R, et al. Emergent abilities of large language models[OL . arXiv preprint arXiv:2206.07682, 2022. [30 Fedus W, Zoph B, Shazeer N. Switch transformers: Scaling to trillion parameter models with simple and efficient sparsity[J . The Journal of Machine Learning Research, 2022, 23(1): 5232-5270. 16 数据分析与知识发现 [31 Chen S, Hou Y, Cui Y, et al. Recall and learn: Fine-tuning deep pretrained language models with less forgetting[OL . arXiv preprint arXiv:2004.12651, 2020. [32 Houlsby N, Giurgiu A, Jastrzebski S, et al. Parameter-efficient transfer learning for NLP[C //International Conference on Machine Learning. PMLR, 2019: 2790-2799. [33 Li X L, Liang P. Prefix-tuning: Optimizing continuous prompts for generation[OL . arXiv preprint arXiv:2101.00190, 2021. [34 Liu X, Zheng Y, Du Z, et al. GPT understands, too[OL . arXiv preprint arXiv:2103.10385, 2021. [35 Lester B, Al-Rfou R, Constant N. The power of scale for parameter-efficient prompt tuning[OL . arXiv preprint arXiv:2104.08691, 2021. [36 Hu E J, Shen Y, Wallis P, et al. Lora: Low-rank adaptation of large language models[OL . arXiv preprint arXiv:2106.09685, 2021. [37 Liu X, Ji K, Fu Y, et al. P-tuning v2: Prompt tuning can be comparable to fine-tuning universally across scales and tasks[OL . arXiv preprint arXiv:2110.07602, 2021. [38 Zhang Q, Chen M, Bukharin A, et al. Adaptive budget allocation for parameter-efficient fine-tuning[OL . arXiv preprint arXiv:2303.10512, 2023. [39 Dettmers T, Pagnoni A, Holtzman A, et al. Qlora: Efficient finetuning of quantized llms[OL . arXiv preprint arXiv:2305.14314, 2023. [40 Pfeiffer J, Vulić I, Gurevych I, et al. Mad-x: An adapter-based framework for multi-task cross-lingual transfer[OL . arXiv preprint arXiv:2005.00052, 2020. [41 He J, Zhou C, Ma X, et al. Towards a unified view of parameter-efficient transfer learning[OL . arXiv preprint arXiv:2110.04366, 2021. [42 Lewis P, Perez E, Piktus A, et al. Retrieval-augmented generation for knowledge-intensive nlp tasks[J . Advances in Neural Information Processing Systems, 2020, 33: 9459-9474. [43 Cambria E, White B. Jumping NLP curves: A review of natural language processing research[J . IEEE Computational intelligence magazine, 2014, 9(2): 48-57. [44 赵悦阳,崔雷.文本嵌入技术的研究与应用进展[J .数据与计算发展前沿,2023,5(03):92-110. [45 Harris Z S. Distributional structure[J . Word, 1954, 10(2-3): 146-162. [46 Bengio Y, Ducharme R, Vincent P. A neural probabilistic language model[J . Advances in neural information processing systems, 2000, 13. [47 Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space[OL . arXiv preprint arXiv:1301.3781, 2013. [48 Pennington J, Socher R, Manning C D. Glove: Global vectors for word representation[C //Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP). 2014: 1532-1543. [49 McCann B, Bradbury J, Xiong C, et al. Learned in translation: Contextualized word vectors[J . Advances in neural information processing systems, 2017, 30. [50 Peters M E,Neumann M,Iyyer M,et al. Deep contextualized word representations[OL . arXiv preprint arXiv:1802.05365,2018. [51 Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[OL . arXiv preprint arXiv:1810.04805, 2018. [52 Yang Z, Dai Z, Yang Y, et al. Xlnet: Generalized autoregressive pretraining for language understanding[J . Advances in neural information processing systems, 2019, 32. [53 Sun Y, Wang S, Feng S, et al. Ernie 3.0: Large-scale knowledge enhanced pre-training for language understanding and generation[OL . arXiv preprint arXiv:2107.02137, 2021. [54 Su H, Kasai J, Wang Y, et al. One embedder, any task: Instruction-finetuned text embeddings[OL . arXiv preprint arXiv:2212.09741, 2022. [55 Wang L, Yang N, Huang X, et al. Text embeddings by weakly-supervised contrastive pre-training[OL . arXiv preprint arXiv:2212.03533, 2022. [56 Muennighoff N, Tazi N, Magne L, et al. MTEB: Massive text embedding benchmark[OL . arXiv preprint arXiv:2210.07316, 2022. [57 Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality[J . Advances in neural information processing systems, 2013, 26. [58 Ram P, Gray A G. Maximum inner-product search using cone trees[C //Proceedings of the 18th ACM SIGKDD international conference on Knowledge discovery and data mining. 2012: 931-939. [59 刘英帆.基于局部敏感哈希的近似最近邻查询研究[D .西安电子科技大学,2014.DOI:10.7666/d.D550595. [60 陈健.基于空间划分的搜索算法[D .山东大学[2023-08-24 .DOI:CNKI:CDMD:2.2005.133909. Data Analysis and Knowledge Discovery 17 [61 Jegou H, Douze M, Schmid C. Product quantization for nearest neighbor search[J . IEEE transactions on pattern analysis and machine intelligence, 2010, 33(1): 117-128. [62 Li W, Zhang Y, Sun Y, et al. Approximate nearest neighbor search on high dimensional data—experiments, analyses, and improvement[J . IEEE Transactions on Knowledge and Data Engineering, 2019, 32(8): 1475-1488. [63 Wei J, Wang X, Schuurmans D, et al. Chain-of-Thought prompting elicits reasoning in large language models[J . Advances in Neural Information Processing Systems, 2022, 35: 24824-24837. [64 Wang X, Wei J, Schuurmans D, et al. Self-consistency improves chain of thought reasoning in language models[OL . arXiv preprint arXiv:2203.11171, 2022. [65 Liu B, Jiang Y, Zhang X, et al. LLM+ p: Empowering large language models with optimal planning proficiency[OL . arXiv preprint arXiv:2304.11477, 2023. [66 Yao S, Yu D, Zhao J, et al. Tree of thoughts: Deliberate problem solving with large language models[OL . arXiv preprint arXiv:2305.10601, 2023. [67 Ning X, Lin Z, Zhou Z, et al. Skeleton-of-Thought: Large Language Models Can Do Parallel Decoding[OL . arXiv preprint arXiv:2307.15337, 2023. [68 Besta M, Blach N, Kubicek A, et al. Graph of Thoughts: Solving Elaborate Problems with Large Language Models[OL . arXiv preprint arXiv:2308.09687, 2023. [69 Yao S, Zhao J, Yu D, et al. React: Synergizing reasoning and acting in language models[OL . arXiv preprint arXiv:2210.03629, 2022. [70 Press O, Zhang M, Min S, et al. Measuring and narrowing the compositionality gap in language models[OL . arXiv preprint arXiv:2210.03350, 2022. [71 Shinn N, Labash B, Gopinath A. Reflexion: an autonomous agent with dynamic memory and self-reflection[OL . arXiv preprint arXiv:2303.11366, 2023. [72 Wang L, Xu W, Lan Y, et al. Plan-and-solve prompting: Improving zero-shot chain-of-thought reasoning by large language models[OL . arXiv preprint arXiv:2305.04091, 2023. [73 Li B, Wang R, Guo J,

猜你喜欢

转载自blog.csdn.net/sinat_37574187/article/details/134473676