LLMResult#

class langchain_core.outputs.llm_result.LLMResult[source]#

基础类:BaseModel

LLM调用结果的容器。

聊天模型和LLMs都会生成一个LLMResult对象。该对象包含生成的输出以及模型提供者希望返回的任何附加信息。

通过解析和验证来自关键字参数的输入数据来创建一个新模型。

如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。

self 被显式地设为仅位置参数,以允许 self 作为字段名称。

param generations: list[list[Generation | ChatGeneration | GenerationChunk | ChatGenerationChunk]] [Required]#

生成的输出。

列表的第一个维度表示不同输入提示的完成情况。

列表的第二个维度表示针对给定提示的不同候选生成。

当从LLM返回时,类型是List[List[Generation]]。 当从聊天模型返回时,类型是List[List[ChatGeneration]]。

ChatGeneration 是 Generation 的一个子类,它有一个用于结构化聊天消息的字段。

param llm_output: dict | None = None#

用于任意LLM提供商的特定输出。

这本字典是一个自由形式的字典,可以包含提供者想要返回的任何信息。它不是标准化的,并且是特定于提供者的。

用户通常应避免依赖此字段,而应依赖从AIMessage中存在的标准化字段访问相关信息。

param run: list[RunInfo] | None = None#

每个输入调用的模型元数据信息列表。

param type: Literal['LLMResult'] = 'LLMResult'#

类型仅用于序列化目的。

flatten() list[LLMResult][source]#

将生成的内容展平为单个列表。

解包 List[List[Generation]] -> List[LLMResult],其中每个返回的 LLMResult 仅包含一个 Generation。如果令牌使用信息可用, 它仅保留给与最佳选择 Generation 对应的 LLMResult, 以避免下游令牌使用的重复计算。

Returns:

LLMResults 列表,其中每个返回的 LLMResult 包含一个单独的

生成。

Return type:

列表[LLMResult]

使用 LLMResult 的示例