提升Prompt的九个思维模型和六大策略
OpenAI官方公布了一份关于提升GPT-4的Prompt策略,总共有六个方面。本文为您整理如下,这些策略不仅适用于普通GPT-4用户,也可能给应用开发者带来一些灵感。
策略一:写清楚指令
Write clear instructions
要知道,模型可不会“读心术”,所以你得把你的要求明明白白地写出来。当模型输出变得太啰嗦时,你可以要求它回答简洁明了。相反地,如果输出太过简单,你可以毫不客气地要求它用专业水平来写。如果你对GPT输出的格式不满意,那就先给它展示你期望的格式,并要求它以同样的方式输出。总之,尽量别让GPT模型自己去猜你的意图,这样你得到的结果就更可能符合你的预期了。
策略二:提供参考文本
Provide reference text
当涉及到深奥的话题、引用和URL等内容时,GPT模型可能会一本正经地胡说八道。为GPT-4提供可以参考的文本,能够减少虚构性回答的出现,使回答的内容更加可靠。
策略三:拆分复杂任务
Split complex tasks into simpler subtasks
相比之下,GPT-4在应对复杂任务时出错率更高。然而,我们可以采取一种巧妙的策略,将这些复杂任务重新拆解成一系列简单任务的工作流程。这样一来,前面任务的输出就可以被用于构建后续任务的输入。就像在软件工程中将一个复杂系统分解为一组模块化组件一样,将任务分解成多个模块,也可以让模型的表现更好。
策略四:给GPT时间“思考”
Give GPTs time to “think”
如果让你计算32乘16,你可能不会立刻知道答案,但是可以通过一些时间计算出来。同样的道理,当GPT-4接收到问题时,它并不会花时间仔细思考,而是试图立刻给出答案,这样就可能导致推理出错。因此,在让模型给出答案前,可以先要求它进行一系列的推理过程,帮助它通过推理来得出正确的答案。
策略五:其它工具加持
Use external tools
GPT-4虽然强大,但并非万能。我们可以借助其他工具来补充GPT-4的不足之处。比如,结合文本检索系统,或者利用代码执行引擎。在让GPT-4回答问题时,如果有一些任务可以由其他工具更可靠、更高效地完成,那么我们可以将这些任务交给它们来完成。这样既能发挥各自的优势,又能让GPT-4发挥最佳水平。
策略六:系统地测试更改
Test changes systematically
有时候很难确定一个改变是会让系统变得更好还是更差。通过观察一些例子有可能会看出哪个更好,但是在样本数量较少的情况下,很难区分是真的得到了改进,还是只是随机运气。也许这个“改变”能够提升某些输入的效果,但却会降低其它输入的效果。而评估程序(evaluation procedures,or “evals”)对于优化系统设计来说非常有用。好的评估有以下几个特点:
1)代表现实世界的用法(或至少是多种用法)
2)包含许多测试用例,可以获得更大的统计功效(参见下表)
3)易于自动化或重复
对输出的评估可以是由计算机进行评估、人工评估,或者两者结合进行。计算机可以使用客观标准自动评估,也可以使用一些主观或模糊的标准,比如说用模型来评估模型。OpenAI提供了一个开源软件框架——OpenAI Evals,提供了创建自动评估的工具。当存在一系列质量同样高的输出时,基于模型的评估就会很有用。
以上是官方给出的策略,下面再给大家分享9个常用的prompt的思维模型,便于大家快速掌握如何高效地使用ChatGPT。
来源:AI修猫Prompt
赞助商链接版权:除非注明,本站文章均为原创文章,转载请联系我们授权,否则禁止转载。