Prompt 优化

除了工程师们在研究 Prompt,学术界也在研究 Prompt。本节学习学术界的 Prompt 优化工作。它们有两类:得到更好的输出;抑制不想要的输出(比如 Bias)。我们称前者为 Prompt 优化,后者为“校准:Calibration”。

Prompt 性能评估

人们首先评估了各种 Prompt 问法,下面是一些发现:

首先,问法很重要,比如:问一个情感分类问题,有各种问法。它们的性能不同。《Calibrate Before Use: Improving Few-Shot Performance of Language Models》, ICML 2021。

其次,例子的顺序也有关系,有时候是最好的,有时候接近随机。《Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity》, ACL 2022

然后,Label 是否正确,并不重要,但 Label 的内容重要。这个很神奇。《Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity》, ACL 2022

然后,通过优化方法,得到的下游任务性能最好的 Prompt 往往很难理解,简直是 Gibberish:《AUTOPROMPT: Eliciting Knowledge from Language Models with Automatically Generated Prompts》, 2020;《iPrompt: Explaining Data Patterns in Natural Language via Interpretable Autoprompting》。

最后,人习惯于逐渐调整 Prompt;Prompt 技巧是可以学习的,而学习的方法包括课程和在线社区的经验分享;Prompt 可以通过检索相关信息来加强;用户的 Prompt 包括描述性和指令性两种;当前 Prompt 的性能如何,等等。详见斯坦福 CS224U 的研究者从人机交互的角度,对 Prompt 的研究。

Prompt 方法

人们也提出了各种神奇的 Prompt 方法:

首先,是告诉 GPT 它的“人设”,比如:“You are a high-school computer science expert”。这叫 “In-Context Impersonation” 技术。这篇论文是《In-Context Impersonation Reveals Large Language Models’ Strengths and Biases》, 2023 年出版。

其次,是选择“自一致”的结果,即:要 GPT 返回多个结果(因为 GPT 有随机性,每次回答得会不一样),然后选择这些结果中比较稳定的结果。这就叫“Self-Consistency” 技术。这篇论文是《Self-Consistency Improves Chain of Thought Reasoning in Language Models》, 发表于 ICLR 2023。

然后,是先 Prompt,用 LLM 产生一些知识,然后用这些知识来增强 Prompt。这叫 “Generated Knowledge Prompting”。这篇论文是《Generated Knowledge Prompting for Commonsense Reasoning》, ACL 2022。

然后,是把问题分解为子问题,然后一步步地 Prompt,即:先问 To solve xx, we need to first solve, 得到第一步;然后 Prompt 得到第一步的解答;然后把解答拼到原题的后面,再问。当然,也可以 Prompt “Let’s break down the problem: ”, “What are the steps needed to solve the task?”。这叫 “Least-to-Most Prompting” 技术。

课程材料

练习

优化论文

普林斯顿课程阅读论文列表

Calibration 论文

普林斯顿

JHU 课程参考论文

Calibration 1

Additional Reading:

Calibration 2

Additional Reading(s):

人机交互优化

从人机交互的角度,评估当前 Prompt 方法的有效性评估

斯坦福 CS224U 推荐论文

捕捉和分析 Prompt 过程的 Interaction Trace

教程

系统

链接


Index Previous Next