chain of thought prompting elicits reasoning in large language models

 GitHub - amazon-science/auto-cot: Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated)Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated) - GitHub - amazon-science/auto-cot: Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated)https://github.com/amazon-science/auto-cot

Chain of Thought论文、代码和资源【论文精读·43】_哔哩哔哩_bilibili更多论文:https://github.com/mli/paper-reading, 视频播放量 51466、弹幕量 130、点赞数 1857、投硬币枚数 979、收藏人数 699、转发人数 392, 视频作者 跟李沐学AI, 作者简介 ,相关视频:GPT,GPT-2,GPT-3 论文精读【论文精读】,Transformer论文逐段精读【论文精读】,CLIP 改进工作串讲(上)【论文精读·42】,如何读论文【论文精读·1】,你(被)吐槽过论文不够 novel 吗?【论文精读】,如何判断(你自己的)研究工作的价值【论文精读】,Chain-of-Thought Reasoning in Language Models 语言模型中的思维链推理,InstructGPT 论文精读【论文精读·48】,Swin Transformer论文精读【论文精读】,找论文复现代码的四种方法(简介区有文字版总结)https://www.bilibili.com/video/BV1t8411e7Ug/?spm_id_from=333.999.0.0&vd_source=4aed82e35f26bb600bc5b46e65e25c22

manual-cot属于few shot,Q和A属于人工设计的问题,autocot使用let's think step by step,前面的Q和A是采样的。not just step by step,lets one by one,不仅仅使用一个step by step,多次使用。

1.abstract

chain of thought(cot):人类在遇到问题时所产生的的推理步骤,表现形式是一些列的短句子。用了cot之后,palm540b在GSM8k上取得了58.1%。

2.introduction

system 1:能够很快被理解的。system 2:很慢需要理解的,需要一步一步思考的,比如解数学题。

在prompt中不仅给出答案,再让大模型续写,而且给出推理过程,大模型续写正确率会提高。

cot需要更多计算量,因为更多的推理过程;cot有更好的可解释性。

人工构造cot的成本很高的,需要自己写推理过程。

在简单数据集上,模型越大,能力也是越高的,但是在难的数据集上,如果只使用标准的prompt,是不如cot prompt的,即便增大模型参数量效果也是不佳的,并非正相关的。

第一种,只有公式,第二种把cot替换成与中间式子等长的...,第三种把推理过程写在答案后面,效果都不太好,体现出cot中自然语言的作用。

在cot之前的prompt只是大模型语言能力的下线。

猜你喜欢

转载自blog.csdn.net/u012193416/article/details/129652161