偏见
LLMs 可能会产生有问题的生成内容,这些内容可能有害并显示出偏见,从而可能降低模型在下游任务中的性能。其中一些问题可以通过有效的提示策略来缓解,但可能需要更高级的解决方案,如审核和过滤。
示例分布
在进行少样本学习时,示例的分布是否会影响模型的性能或以某种方式使模型产生偏差?我们可以在这里进行一个简单的测试。
提示:
Q: I just got the best news ever!
A: Positive
Q: We just got a raise at work!
A: Positive
Q: I'm so proud of what I accomplished today.
A: Positive
Q: I'm having the best day ever!
A: Positive
Q: I'm really looking forward to the weekend.
A: Positive
Q: I just got the best present ever!
A: Positive
Q: I'm so happy right now.
A: Positive
Q: I'm so blessed to have such an amazing family.
A: Positive
Q: The weather outside is so gloomy.
A: Negative
Q: I just got some terrible news.
A: Negative
Q: That left a sour taste.
A:
输出:
Negative
在上面的例子中,似乎示例的分布并没有使模型产生偏差。这很好。让我们尝试另一个更难分类的文本的例子,看看模型的表现如何:
提示:
Q: The food here is delicious!
A: Positive
Q: I'm so tired of this coursework.
A: Negative
Q: I can't believe I failed the exam.
A: Negative
Q: I had a great day today!
A: Positive
Q: I hate this job.
A: Negative
Q: The service here is terrible.
A: Negative
Q: I'm so frustrated with my life.
A: Negative
Q: I never get a break.
A: Negative
Q: This meal tastes awful.
A: Negative
Q: I can't stand my boss.
A: Negative
Q: I feel something.
A:
输出:
Negative
虽然最后一句话有些主观,但我翻转了分布,改为使用8个正面例子和2个负面例子,然后再次尝试了完全相同的句子。猜猜模型是怎么回应的?它回应了“正面”。模型可能对情感分类有很多知识,因此很难让它在这个问题上表现出偏见。这里的建议是避免偏斜分布,而是为每个标签提供更平衡的例子数量。对于模型不太了解的更难任务,它可能会更加挣扎。
示例顺序
在进行少样本学习时,顺序是否会影响模型的性能或以某种方式使模型产生偏差?
你可以尝试上述示例,看看是否可以通过改变顺序使模型偏向某个标签。建议是随机排列示例。例如,避免所有正面示例在前,负面示例在后。如果标签的分布是倾斜的,这个问题会进一步放大。始终确保进行大量实验以减少这种类型的偏差。