Skip to main content
Open on GitHub

迁移到 astream_events(..., version="v2")

我们已经在0.2.x版本中增加了v2版本的astream_events API。你可以查看这个PR了解更多详情。

v2 版本是对 v1 版本的重写,应该更高效,事件输出更一致。v1 版本的 API 将被弃用,转而支持 v2 版本,并将在 0.4.0 版本中移除。

以下是API的v1v2版本之间的更改列表。

on_chat_model_end 的输出

v1中,与on_chat_model_end相关的输出会根据聊天模型是作为根级可运行对象运行还是作为链的一部分运行而改变。

作为根级别的可运行对象,输出为:

"data": {"output": AIMessageChunk(content="hello world!", id='some id')}

作为链的一部分,输出是:

            "data": {
"output": {
"generations": [
[
{
"generation_info": None,
"message": AIMessageChunk(
content="hello world!", id=AnyStr()
),
"text": "hello world!",
"type": "ChatGenerationChunk",
}
]
],
"llm_output": None,
}
},

v2开始,输出将始终是更简单的表示形式:

"data": {"output": AIMessageChunk(content="hello world!", id='some id')}
note

非聊天模型(即常规的LLMs)目前将始终与更详细的格式相关联。

on_retriever_end的输出

on_retriever_end 输出将始终返回一个 Documents 列表。

之前:

{
"data": {
"output": [
Document(...),
Document(...),
...
]
}
}

已移除 on_retriever_stream

on_retriever_stream 事件是实现的产物,现已被移除。

与事件相关的完整信息已经在on_retriever_end事件中可用。

请使用 on_retriever_end 代替。

已移除 on_tool_stream

on_tool_stream 事件是实现的产物,现已被移除。

与事件相关的完整信息已经在on_tool_end事件中可用。

请使用 on_tool_end 代替。

传播名称

可运行实体的名称已更新,以更加一致。

model = GenericFakeChatModel(messages=infinite_cycle).configurable_fields(
messages=ConfigurableField(
id="messages",
name="Messages",
description="Messages return by the LLM",
)
)

v1 中,事件名称为 RunnableConfigurableFields

v2中,事件名称为GenericFakeChatModel

如果您正在按事件名称进行过滤,请检查是否需要更新您的过滤器。

可重试任务

在流式传输的LCEL链中使用RunnableRetry时,在v1中生成了一个不正确的on_chain_end事件,该事件对应于正在重试的失败可运行调用。此事件已在v2中移除。

此更改无需采取任何行动。


这个页面有帮助吗?