跳到主要内容
Open on GitHub

迁移到 astream_events(..., version="v2")

我们已在 0.2.x 版本中添加了 v2 版本的 astream_events API。您可以查看此 PR 以了解更多详情。

v2 版本是 v1 版本的重写,应该更高效,并且事件的输出更一致。API 的 v1 版本将被弃用,以支持 v2 版本,并将在 0.4.0 中移除。

以下是 API 的 v1v2 版本之间更改的列表。

on_chat_model_end 的输出

v1 中,与 on_chat_model_end 关联的输出根据聊天模型是作为根级别 runnable 运行还是作为链的一部分运行而变化。

作为根级别 runnable,输出为

"data": {"output": AIMessageChunk(content="hello world!", id='some id')}

作为链的一部分,输出为

            "data": {
"output": {
"generations": [
[
{
"generation_info": None,
"message": AIMessageChunk(
content="hello world!", id=AnyStr()
),
"text": "hello world!",
"type": "ChatGenerationChunk",
}
]
],
"llm_output": None,
}
},

v2 开始,输出将始终是更简单的表示形式

"data": {"output": AIMessageChunk(content="hello world!", id='some id')}
注意

非聊天模型(即,常规 LLM)目前将始终与更详细的格式关联。

on_retriever_end 的输出

on_retriever_end 输出将始终返回 Documents 列表。

之前

{
"data": {
"output": [
Document(...),
Document(...),
...
]
}
}

移除 on_retriever_stream

on_retriever_stream 事件是实现的产物,已被移除。

与该事件关联的完整信息已在 on_retriever_end 事件中提供。

请改用 on_retriever_end

移除 on_tool_stream

on_tool_stream 事件是实现的产物,已被移除。

与该事件关联的完整信息已在 on_tool_end 事件中提供。

请改用 on_tool_end

传播名称

runnables 的名称已更新,以使其更加一致。

model = GenericFakeChatModel(messages=infinite_cycle).configurable_fields(
messages=ConfigurableField(
id="messages",
name="Messages",
description="Messages return by the LLM",
)
)

v1 中,事件名称为 RunnableConfigurableFields

v2 中,事件名称为 GenericFakeChatModel

如果您按事件名称进行过滤,请检查是否需要更新您的过滤器。

RunnableRetry

在流式传输的 LCEL 链中使用 RunnableRetry 会在 v1 中生成不正确的 on_chain_end 事件,该事件对应于正在重试的失败 runnable 调用。此事件已在 v2 中移除。

此更改无需任何操作。


此页对您有帮助吗?