迁移到 astream_events(..., version="v2")
我们已经在0.2.x
版本中增加了v2
版本的astream_events API。你可以查看这个PR了解更多详情。
v2
版本是对 v1
版本的重写,应该更高效,事件输出更一致。v1
版本的 API 将被弃用,转而支持 v2
版本,并将在 0.4.0
版本中移除。
以下是API的v1
和v2
版本之间的更改列表。
on_chat_model_end
的输出
在v1
中,与on_chat_model_end
相关的输出会根据聊天模型是作为根级可运行对象运行还是作为链的一部分运行而改变。
作为根级别的可运行对象,输出为:
"data": {"output": AIMessageChunk(content="hello world!", id='some id')}
作为链的一部分,输出是:
"data": {
"output": {
"generations": [
[
{
"generation_info": None,
"message": AIMessageChunk(
content="hello world!", id=AnyStr()
),
"text": "hello world!",
"type": "ChatGenerationChunk",
}
]
],
"llm_output": None,
}
},
从v2
开始,输出将始终是更简单的表示形式:
"data": {"output": AIMessageChunk(content="hello world!", id='some id')}
note
非聊天模型(即常规的LLMs)目前将始终与更详细的格式相关联。
on_retriever_end
的输出
on_retriever_end
输出将始终返回一个 Documents
列表。
之前:
{
"data": {
"output": [
Document(...),
Document(...),
...
]
}
}
已移除 on_retriever_stream
on_retriever_stream
事件是实现的产物,现已被移除。
与事件相关的完整信息已经在on_retriever_end
事件中可用。
请使用 on_retriever_end
代替。
已移除 on_tool_stream
on_tool_stream
事件是实现的产物,现已被移除。
与事件相关的完整信息已经在on_tool_end
事件中可用。
请使用 on_tool_end
代替。
传播名称
可运行实体的名称已更新,以更加一致。
model = GenericFakeChatModel(messages=infinite_cycle).configurable_fields(
messages=ConfigurableField(
id="messages",
name="Messages",
description="Messages return by the LLM",
)
)
在 v1
中,事件名称为 RunnableConfigurableFields
。
在v2
中,事件名称为GenericFakeChatModel
。
如果您正在按事件名称进行过滤,请检查是否需要更新您的过滤器。
可重试任务
在流式传输的LCEL链中使用RunnableRetry时,在v1
中生成了一个不正确的on_chain_end
事件,该事件对应于正在重试的失败可运行调用。此事件已在v2
中移除。
此更改无需采取任何行动。