论文解读:Large Language Models as Analogical Reasoners

image.png

一、动机

  • 大模型在各种类型的NLP任务上均展现出惊艳的表现。基于CoT propmt能够更好地激发大模型解决复杂推理问题的能力,例如解决数学解题,可以让模型生成reasoning path。现有的经典的CoT方法有few-shot cot、zero-shot cot等。
  • 然后现有的cot面临两个核心挑战:
    • 需要提供相关的exemplars作为指导;
    • 需要尽可能减少人工标注的成本;
  • Zero-shot CoT避免了人工标注来引导推理,但是对于一些复杂的任务难以完成推理,例如code generation;而few-shot CoT则可以通过引入task相关的exemplar来让大模型生成相应的推理,但是此时则需要人工标注或挑选exemplar
  • 因此引发一个研究问题:如何能够同时兼顾两者的优势?
  • 本文提出一种“归纳学习”的提示方法。首先设计instruction让大模型生成出与当前问题比较相关的exemplars,并补全exemplars,最后让模型recall relevant problem and aolutions来解决当前的问题。

二、方法

本文关注problem-solving task。
给定一个问题 x x x,首先通过一个prompt method将问题映射到文本输入 ϕ ( x ) \phi(x) ϕ(x),任务目标是调用LLM解决这个问题并生成目标答案 y y y,生成的目标答案可以包含reasoning path r r r和答案 a a a
image.png
本文则是关注在设计 ϕ \phi ϕ

image.png

Self-Generated Exemplars

**归纳提示学习(analogical prompting)**旨在模型在解决一个新的问题时,能够自发性地寻找相似的已有的知识。因此提出Self-Generated Exemplars方法,即让模型从在训练阶段掌握的problem-solving knowledge中生成出相关的问题和解决方法。
设计指令来达到这个目的:
image.png
基于这个instruction的一个实例如下所示:
image.png
大模型能够根据给定的instruciton,在对于一个新的问题 x x x时候,能够先生成出3个相关的且互不相同的problem并给出相应的解决方案,然后再对目标问题进行解决。

self-generated instruction的三个核心部分:

  • 需要明确地让模型生成relevant切diverse exemplars。因为打磨学会偏向于重复地生成一些经典的问题,误导模型生成。

generate problems that are distinct from each other.

  • single-pass & independent exemplar generation。实验发现single-pass效果最好:
    • single-pass:本文提出的方法,一个instruction让模型生成3个exemplar;
    • independent exemplar generation:让模型分别生成若干exemplar,然后采样3个exemplar之后再重新设计prompt让大模型进行生成。
  • exemplar number K K K:发现3~5最佳。

Self-generated Knowledge + Exemplars

对于像code-generation等复杂的任务,low-level exemplar generation不一定能过让模型很好地解决此类问题,因此本文提出一种high-level generation方法。通过设计如下指令来实现:
image.png
对应的具体的例子如下所示:
image.png
本质来说,就是在self-generated exemplar prompt的基础上,添加新的任务,即让模型生成核心知识。例如代码生成中,需要让模型先思考选择什么algorithm,以及algorithm对应的tutorial。
Knowledge的优势主要体现在两个方面:

  • knowledge act as high-level takeaways that complement low-level exemplars, which prevents LLMs from overly relying on specific exemplars and helps to generalize to new problems;
  • LLMs identify the core concepts of the problem and produce exemplars that align more closely in fundamental problem-solving approaches

三、实验

实验数据任务:

  • mathematical problem solving:GSM8K、MATH等;
  • code generation:动态规划、图算法等复杂的编程题,例如codeforces;
  • Big-Bench

模型:

  • GPT3.5-turbo、GPT-4、PaLM2-L

实验结果:

发现本文提出的方达到了SOTA。
image.png

探索:Self-generation exemplar与retrieve relevant exemplar的对比

  • retrieve方法的优势在于准确可靠,即采样得到的exemplar一定是准确的,但是缺点在于需要额外的标注成本,且搜索空间往往有限
  • self-generation方法的优势在于简单且自适应,能够根据具体的task量身定制对应的exemplar,且搜索空间可以是整个模型训练的语料。 v

image.png

探索:Scale of LLM

上图中展示出,当模型规模越大时,解题的准确性也越高,同时我们提出的self-generation方法与baseline的提升幅度也越大。

  • 当使用小模型时候,LLM本身的知识有限,因此更需要retrieve exemplar;
  • 当使用大模型的时候,此时LLM本身的知识很丰富,选择self-generation更容易得到与目标问题相近的exemplar。

探索:exemplar数量分析

image.png
发现当 K ∈ { 3 , 4 , 5 } K\in\{3, 4, 5\} K{ 3,4,5}时候更合适。


猜你喜欢

转载自blog.csdn.net/qq_36426650/article/details/134002396