Teach LLMs to Personalize – An Approach inspired by Writing Education

本文也是LLM系列的文章,针对《Teach LLMs to Personalize – An Approach inspired by Writing Education》的翻译。

摘要

个性化文本生成是近年来备受关注的一个新兴研究领域。该方向的大多数研究都通过设计定制功能或模型来关注特定领域。在这项工作中,我们提出了一种使用大型语言模型(LLM)生成个性化文本的通用方法。受写作教育实践的启发,我们开发了一个多阶段、多任务的框架来教授LLM,以实现个性化生成。在写作教学中,从源头写作的任务通常被分解为多个步骤,包括发现、评估、总结、综合和整合信息。类似地,我们的个性化文本生成方法包括多个阶段:检索、排序、摘要、合成和生成。此外,我们引入了一个多任务设置,帮助模型进一步提高其生成能力,这是受教育中观察到的学生的阅读能力和写作能力往往相关的启发。我们在三个公共数据集上评估了我们的方法,每个数据集都涵盖了不同的代表性领域。我们的结果显示,在各种基线上都有显著的改进。

1 引言

2 相关工作

3 问题形式化

4 方法概述

5 个性化文本生成

5.1 检索

5.2 排序

5.3 摘要

5.4 综合

5.5 个性化生成

5.6 多任务学习

6 实验设置

7 实验结果

8 结论

我们提出了一种用于个性化文本生成的大型语言模型的通用教学方法。类似于如何指导学生按照一系列步骤从来源进行写作,所提出的方法由多个阶段组成:检索、排名、摘要、合成和生成。此外,受阅读和写作技能相互关联的观察结果的启发,我们创建了一个多任务设置,通过区分给定文档对的作者来提高模型的阅读能力。这种多任务设置进一步提高了模型根据经验生成个性化文本的能力。我们在来自代表性领域的三个公开发布的数据集上评估了我们的模型。我们的结果证明了多级多任务框架的有效性。调查世界知识的结合,例如产品信息,是未来工作的一个有希望的方向。

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/132402994