跳到主要内容

Zero-Shot 提示

如今的大型语言模型(LLMs),如 GPT-3.5 Turbo、GPT-4 和 Claude 3,经过调整以遵循指令,并在大量数据上进行训练。大规模训练使这些模型能够以“零-shot”方式执行某些任务。零-shot 提示意味着用于与模型交互的提示不会包含示例或演示。零-shot 提示直接指示模型执行任务,而无需额外的示例来引导它。

我们在前一节尝试了一些零-shot 示例。以下是我们使用的一个示例(即文本分类):

提示:

将文本分类为中性、负面或正面。

文本: 我觉得这个假期还可以。
情感:

输出:

中性

请注意,在上述提示中,我们没有为模型提供任何文本示例以及它们的分类,LLM已经理解了“情感”--这就是零-shot 能力的作用。

研究表明,指令调整可以改善零-shot 学习Wei et al. (2022)。指令调整本质上是指通过指令描述的数据集对模型进行微调的概念。此外,已经采用了RLHF(从人类反馈中进行强化学习)来扩展指令调整,其中模型被调整以更好地符合人类偏好。这一最新进展支持了像 ChatGPT 这样的模型。我们将在接下来的章节中讨论所有这些方法和途径。

当零-shot 无法奏效时,建议在提示中提供演示或示例,这将导致少量-shot 提示。在下一节中,我们将演示少量-shot 提示。