LLMResult#
- class langchain_core.outputs.llm_result.LLMResult[source]#
基础类:
BaseModel
LLM调用结果的容器。
聊天模型和LLMs都会生成一个LLMResult对象。该对象包含生成的输出以及模型提供者希望返回的任何附加信息。
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param generations: list[list[Generation | ChatGeneration | GenerationChunk | ChatGenerationChunk]] [Required]#
生成的输出。
列表的第一个维度表示不同输入提示的完成情况。
列表的第二个维度表示针对给定提示的不同候选生成。
当从LLM返回时,类型是List[List[Generation]]。 当从聊天模型返回时,类型是List[List[ChatGeneration]]。
ChatGeneration 是 Generation 的一个子类,它有一个用于结构化聊天消息的字段。
- param llm_output: dict | None = None#
用于任意LLM提供商的特定输出。
这本字典是一个自由形式的字典,可以包含提供者想要返回的任何信息。它不是标准化的,并且是特定于提供者的。
用户通常应避免依赖此字段,而应依赖从AIMessage中存在的标准化字段访问相关信息。
- param type: Literal['LLMResult'] = 'LLMResult'#
类型仅用于序列化目的。
使用 LLMResult 的示例