前段时间在 DeepLearning 学了一门大火的 Prompt 的课程,吴恩达本人授课,讲的通俗易懂,感觉受益匪浅,因此在这里总结分享一下我的学习笔记。
为什么要学习 Prompt ?
因为在未来的 AIGC
年代,学习有效的 Promot
提示词有效的利用 AI 来完成一些重复性的工作。这也我认为未来每个人都必备的技能之一。
以下是我个人学完这门课程的总结:
总而言之,学习 Prompt 提示词可以帮助您更好地与 LLM 模型进行交互,指导其生成符合您需求的文本,并提高效率和准确性。也推荐大家有时间可以看完完整的视频课程。我就不过多展开了。以下是我对课程的学习笔记。
第一章节,引言主要介绍和 ChatGPT
或类似的 LLM
交流时,要遵循的几个基本原则,如下:
ChatGPT
这样一个作为通用领域的大模型,对于一些特别复杂、需要深度专业知识,它是无法提供准确的答案的,特定领域的问题必须由特定领域的专用模型来解决。以上就是向第一章课程中包含的向 AI 提问的基本原则,希望对你有所帮助。
第二章主要介绍以下内容:
在数据处理与分析,API 开发和测试等常见的场景中你可能需要生成或解析 JSON 数据。你可以使用 ChatGPT 帮助你完成这些任务。
例如,如果我们想让ChatGPT生成一个包含某人信息的JSON对象,可以按照以下方式询问:
命令: "请生成一个包含姓名(John Doe)、年龄(30)和职业(Software Engineer)的 JSON 对象。"
ChatGPT 可能会生成以下的输出:
{ "name": "John Doe", "age": 30, "profession": "Software Engineer" }
这是一个基本的示例,你可以根据需要自定义属性和值。甚至让它生成一个虚拟的 JSON 数组对象也是很简单的
ChatGPT 是一个基于大量文本训练的语言模型,因此,它可能会生成包含错误、过时或猜测的信息的答案。
但是,通过优化你的问题或提示(prompt),你可以降低这种情况的可能性。方法如下:
示例如下:
假设你想了解电池的工作原理,你可以按照以下方式提问:
对此,ChatGPT 可能会给出一个基本的答案,解释电池的化学反应和能量转换。
但是,你可能希望得到更详细的答案,或者验证模型的回答。你可以用以下方式改进你的提问:
寻求详细的解释: "能否详细解释一下电池的工作原理,特别是化学反应是如何产生电流的?"
这个问题要求模型提供更详细的答案,并专注于电池的特定方面。再者,你可以要求模型引用其信息来源,尽管它不能实时查阅互联网,但可以提供它的训练数据中的一些信息:
要求引用来源: "能否详细解释一下电池的工作原理,特别是化学反应是如何产生电流的? 并请提供你的信息来源。"
这样的问题可以让模型生成一个更完整和详细的答案,并尽可能地提供一些源于其训练数据的信息来源。
最后,如果你对模型的回答有疑虑,你可以通过不同的方式重复提问,或要求模型解释它的答案:
使用多个问题和要求解释: "你能解释一下电池内部的化学反应是如何产生电流的吗?它是如何转化为我们所用的电力的?你的答案是基于什么样的科学原理的?"
这样的提问方式不仅可以从不同的角度理解问题,还可以挑战模型的回答,检查其是否基于合理的科学原理。
本章主要讲解如何通过足够的迭代(上下文和语境)让 AI 更好的解决问题,这也是吴恩达所说的 不要迷信完美的 Prompt,简单的 Prompt 只能解决简单的问题,只有足够的迭代(上下文和语境)才能真正的解决问题你当前遇到的问题,主要原因如下:
总的来说,提供更多的上下文信息可以帮助 ChatGPT 更准确、更有用地回答你的问题。这也是开始说的 不要迷信完美的 Prompt 的原因所在了。
本章主要介绍 ChatGPT 的总结冗余信息的能力,信息大爆炸和快节奏的时代,要读完一本学术巨著,或者是冗长的商业报告,法律文书等长篇文章几乎是不可能了,有效的利用 ChatGPT 的摘要能力,它能够从一篇长文中提取关键信息并生成一个总结,帮助我们压缩,但又不错过关键信息,提高阅读效率。生成总结提示词的方法很简单,你可以上传一份文档(使用 AskYourPDF 插件),或者给他一串长文本,然后提问:请为这篇文章生成一个总结。 即可。这章比较简单,就会继续展开了。
本章主要介绍 AI 的推理能力,推理能力是 AI 能力非常有趣的能力,当你给它一个问题或一个话题,它就会根据已经学到的知识和技能,尝试生成一个合理且有帮助的回答。它是基于零样本学习(Zero-Shot Learning)来实现的。通俗的解释就是:
模型利用已有的知识或信息来处理新的、未知的情况。在进行推理时,模型可能需要根据已知的事实或规则来预测未知的结果。
可以通过一个例子来理解:
比如说,如果你告诉 ChatGPT,“今天下雨,我没有带伞,我会湿吗?”
ChatGPT 会结合它“学习”到的关于雨、伞和湿度的知识,给出 “是的,如果你在雨中行走而没有伞,你可能会变湿。”这样的回答。
这就涉及到了一种简单的推理:雨会让人湿,伞可以避免人淋湿,没有伞的人在雨中会湿。
Transforming 转换可谓是 AI 的非常擅长的能力,算是看家本领。关于 Transforming 的学术描述是这样的:
Transforming 能力主要是指它可以把一种形式的信息转化为另一种形式,或者把信息从一种语境、语气、风格转换到另一种。
这么理解可能比较抽象,以下是一些经常会应用到的应用场景:
以上只是一些可能的应用场景,AI 的转换能力可以在许多其他场景中发挥作用,取决于具体的需求和环境。
扩展 Expanding 能力主要指它可以从给定的初始信息或提示中生成更多的内容或信息。简单来说摘要(Summarizing)的使用场景相反,就是根据短文生成长文。比如文章、故事、对话等。以下是一些可能的应用场景:
示例:
假设我们给出 AI 一个如下的提示词:
请根据以下提示词生成一个故事:在一个风和日丽的早晨,杰克醒来,发现他的宠物鹦鹉消失了。
它会生成如下的故事:
在一个风和日丽的早晨,杰克醒来,发现他的宠物鹦鹉消失了。他的眼神立即被笼子空荡荡的一角所吸引,笼门半开,鹦鹉的食物未动,一切都显得格外安静,与往日的欢声笑语形成了鲜明对比。 他心急如焚,急忙在家里找寻,然而,家里并没有找到鹦鹉的踪影。他的心沉了下来,他想,也许鹦鹉只是飞出去玩了一会,很快就会回来的。然而,整个上午过去了,鹦鹉还是没有回来。 午后的阳光照在花园里,杰克决定到花园和附近的森林里寻找鹦鹉。他呼唤着鹦鹉的名字,但只有微风吹过树叶的声音回应他。杰克心里越来越不安,他知道鹦鹉不可能走得太远。 就在此时,他看到了一片鹦鹉的羽毛,旁边还有一些熟悉的爪印。他心跳加速,紧跟着这些线索深入森林。在森林的深处,他看到了他的鹦鹉,它正站在一个高大的橡树上,旁边是一窝刚刚孵化的小鸟。 原来,鹦鹉是跟着母鸟来到这里,帮助它照顾刚刚孵化的小鸟。看到这一幕,杰克笑了,他知道他的鹦鹉是一只善良的生物,它的消失是为了做一件好事。 那一天,杰克和他的鹦鹉一起在森林里度过了美好的一天。他们帮助小鸟找食物,一起在树林里玩耍。晚上,鹦鹉回到了笼子,杰克知道,无论鹦鹉飞到哪里,它都会回到他身边,因为这就是它的家。
在这个示例中,ChatGPT 从一个简单的提示扩展出一个完整的故事,包括角色的动作、感情以及故事的发展和结局。
吴恩达的这门 Prompt Engineering 课程,主要讲解了使用 Prompt 的基本原则,还有 LLM 大模型在各个场景下的使用方式。
关于使用 Prompt 要记住以下原则:
以上是课程的全部内容,课程内容不长,有兴趣可以去官网学习。