ChatResult#

class langchain_core.outputs.chat_result.ChatResult[source]#

基础类:BaseModel

用于表示使用单一提示的聊天模型调用的结果。

此容器由聊天模型的一些实现内部使用,它最终将被映射到一个更通用的LLMResult对象,然后投影到一个AIMessage对象中。

使用聊天模型的LangChain用户通常会通过AIMessage(从可运行接口返回)或LLMResult(通过回调可用)访问信息。请参阅AIMessageLLMResult的模式文档以获取更多信息。

通过解析和验证来自关键字参数的输入数据来创建一个新模型。

如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。

self 被显式地设为仅位置参数,以允许 self 作为字段名称。

param generations: list[ChatGeneration] [Required]#

聊天生成的列表。

Generations 是一个列表,允许为单个输入提示生成多个候选生成。

param llm_output: dict | None = None#

用于任意LLM提供商的特定输出。

这本字典是一个自由形式的字典,可以包含提供者想要返回的任何信息。它不是标准化的,并且是特定于提供者的。

用户通常应避免依赖此字段,而应依赖从AIMessage中存在的标准化字段访问相关信息。

使用 ChatResult 的示例