ChatGPT Prompt Engineering for Developers(面向开发人员的 ChatGPT 提示工程)资源汇总

ChatGPT Prompt Engineering for Developers(面向开发人员的 ChatGPT 提示工程)资源汇总

吴恩达老师上新课了《开发者的ChatGPT提示工程课程》。

官网地址:

链接地址为ChatGPT Prompt Engineering for Developers

B站中英文字幕视频

01. 课程介绍(吴恩达 x Open AI ChatGPT 提示工程教程)https://www.bilibili.com/video/BV1s24y1F7eq/?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=2a987c3774539d2fa53ee052ab6a2381

github的notebook

prompt-engineering-for-developers

这门课是Isa Fulford和吴恩达老师一起教授。Isa Fulford是OpenAI的技术人员,负责开发ChatGPT检索插件,并教授如何在产品中使用大型语言模型技术。

课程将分享ChatGPT提示的最佳实践,重点是如何使用LLM的API调用快速构建软件应用程序。课程内容涵盖软件开发的最佳实践、常见的用例(摘要、推理、转换、扩展)和构建聊天机器人。希望课程能激发学员的想象力,帮助他们构建新的应用程序。
在这里插入图片描述
在这里插入图片描述

Introduction引言

课程将探讨如何使用LLM API调用快速构建软件应用程序,并介绍软件开发的最佳实践。我们将讨论一些常见的用例,如摘要、推理、转换和扩展,并引导您使用LLM构建一个聊天机器人。我们希望通过这门课程激发您的想象力,帮助您构建出新的应用程序。

Guidelines 原则

第一个原则是编写清晰和具体的说明,第二个原则是给模型足够的时间来思考。

原则一:编写清晰和具体的说明

原则二:给模型足够的时间来思考

给模型足够的时间来思考其实是:指示模型先解决问题,然后再得出结论。举例来说,我们要求模型判断学生的数学解决方案是否正确。学生的解决方案有一个错误,但在快速阅读时可能不易察觉。为了解决这个问题,我们让模型独立计算并比较解决方案。我们使用特定的格式,包括问题、学生的解决方案、正确的解决方案,然后判断是否一致,并给出学生的评分。这样,模型会先进行自己的计算,得到正确答案,然后在比较时发现不一致,推断学生的解决方案是错误的。这个示例说明了要求模型先解决问题,然后再比较解决方案的重要性,以获得更准确的结果。

技巧:分隔符

通过在文本中使用分隔符,我们可以清楚地告诉模型哪部分文本是我们想要进行摘要的内容。分隔符可以是各种标点符号,例如三个反引号、引号、XML标签或章节标题,只要它们能明确地将特定文本部分与提示的其余部分分隔开即可。这种方法有助于避免提示注入的问题,即用户可能会在提示中添加一些与我们期望的操作冲突的指令,从而使模型按照用户的指令执行而不是我们希望的操作。

技巧:可以要求模型检查条件

要求模型检查条件是否满足。如果任务基于并不一定满足的假设,我们可以告诉模型首先检查这些假设。如果假设不满足,就指示模型指出这一点,并停止尝试完全完成任务。您还可以考虑潜在的边界情况以及模型应该如何处理它们,以避免意外的错误或结果。

我们的下一个策略是

注意:回答可能是虚构的

可能虚构听起来合理但实际上不正确的内容。

猜你喜欢

转载自blog.csdn.net/qq_37553692/article/details/130824626