outputs#

输出类用于表示语言模型调用的输出和聊天的输出。

信息的顶层容器是LLMResult对象。LLMResult被聊天模型和LLMs使用。该对象包含语言模型的输出以及模型提供者希望返回的任何附加信息。

当通过标准的可运行方法(例如invoke、batch等)调用模型时: - 聊天模型将返回AIMessage对象。 - 大语言模型将返回常规文本字符串。

此外,用户可以通过回调访问LLMs或聊天模型的原始输出。on_chat_model_end和on_llm_end回调将返回一个LLMResult对象,其中包含生成的输出和模型提供商返回的任何附加信息。

一般来说,如果信息已经在AIMessage对象中可用,建议从那里访问它,而不是从LLMResult对象中访问。

outputs.chat_generation.ChatGeneration

单个聊天生成输出。

outputs.chat_generation.ChatGenerationChunk

ChatGeneration 块,可以与其他 ChatGeneration 块连接。

outputs.chat_result.ChatResult

用于表示使用单个提示调用聊天模型的结果。

outputs.generation.Generation

单个文本生成输出。

outputs.generation.GenerationChunk

生成块,可以与其他生成块连接。

outputs.llm_result.LLMResult

用于存储LLM调用结果的容器。

outputs.run_info.RunInfo

包含Chain或模型单次执行的元数据的类。