生成#

class langchain_core.outputs.generation.Generation[source]#

基础类:Serializable

单个文本生成输出。

Generation 表示来自“传统”LLM的响应,该LLM生成常规文本(非聊天消息)。

该模型由聊天模型内部使用,最终将映射到一个更通用的LLMResult对象,然后投影到一个AIMessage对象中。

使用聊天模型的LangChain用户通常会通过AIMessage(从可运行接口返回)或LLMResult(通过回调可用)访问信息。请参阅AIMessageLLMResult的模式文档以获取更多信息。

param generation_info: dict[str, Any] | None = None#

来自提供者的原始响应。

可能包括完成的原因或令牌对数概率等内容。

param text: str [Required]#

生成的文本输出。

param type: Literal['Generation'] = 'Generation'#

类型仅用于序列化目的。 对于此类,设置为“Generation”。

使用生成的示例