ChatResult#
- class langchain_core.outputs.chat_result.ChatResult[source]#
基础类:
BaseModel
用于表示使用单一提示的聊天模型调用的结果。
此容器由聊天模型的一些实现内部使用,它最终将被映射到一个更通用的LLMResult对象,然后投影到一个AIMessage对象中。
使用聊天模型的LangChain用户通常会通过AIMessage(从可运行接口返回)或LLMResult(通过回调可用)访问信息。请参阅AIMessage和LLMResult的模式文档以获取更多信息。
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param generations: list[ChatGeneration] [Required]#
聊天生成的列表。
Generations 是一个列表,允许为单个输入提示生成多个候选生成。
- param llm_output: dict | None = None#
用于任意LLM提供商的特定输出。
这本字典是一个自由形式的字典,可以包含提供者想要返回的任何信息。它不是标准化的,并且是特定于提供者的。
用户通常应避免依赖此字段,而应依赖从AIMessage中存在的标准化字段访问相关信息。
使用 ChatResult 的示例