跳到主要内容

真实性

LLM(大型语言模型)往往会生成听起来连贯有说服力的回答,但有时可能是虚构的。改进提示可以帮助改善模型生成更准确/真实的回答,并减少生成不一致和虚构的回应的可能性。

一些解决方案可能包括:

  • 提供事实依据(例如相关文章段落或维基百科条目)作为上下文的一部分,以减少模型产生虚构文本的可能性。
  • 配置模型以通过降低概率参数并指示在不知道答案时承认(例如,“我不知道”)来产生较少多样化的回应。
  • 在提示中提供一系列问题和回答的组合示例,这些问题和回答可能是已知或未知的。

让我们看一个简单的例子:

提示:

Q: 什么是原子?
A: 原子是组成一切的微小粒子。

Q: 阿尔文·蒙茨(Alvan Muntz)是谁?
A: ?

Q: 什么是科扎尔-09(Kozar-09)?
A: ?

Q: 火星有多少颗卫星?
A: 两颗,分别是火卫一和火卫二。

Q: 罗伯托·内托·贝托(Neto Beto Roberto)是谁?

输出:

A: ?

我虚构了“罗伯托·内托·贝托(Neto Beto Roberto)”这个名字,所以在这种情况下模型是正确的。尝试稍微改变问题,看看是否可以让它工作。根据你们迄今所学,还有许多方法可以进一步改进这一点。