跳转至主要内容
Open In ColabOpen on GitHub

如何将参数从一个步骤传递到下一个步骤

当组合包含多个步骤的链时,有时您会希望将先前步骤的数据保持不变地传递,以用作后续步骤的输入。RunnablePassthrough 类允许您做到这一点,并且通常与 RunnableParallel 结合使用,以将数据传递到您构建的链中的后续步骤。

请参见以下示例

%pip install -qU langchain langchain-openai

import os
from getpass import getpass

if "OPENAI_API_KEY" not in os.environ:
os.environ["OPENAI_API_KEY"] = getpass()
from langchain_core.runnables import RunnableParallel, RunnablePassthrough

runnable = RunnableParallel(
passed=RunnablePassthrough(),
modified=lambda x: x["num"] + 1,
)

runnable.invoke({"num": 1})
{'passed': {'num': 1}, 'modified': 2}

如上所示,passed 键使用 RunnablePassthrough() 调用,因此它只是传递了 {'num': 1}

我们还在映射中设置了第二个键 modified。这使用 lambda 设置一个值,将 num 加 1,从而生成了键为 modified,值为 2 的结果。

检索示例

在下面的示例中,我们看到了一个更真实的用例,其中我们在链中使用 RunnablePassthroughRunnableParallel 来正确格式化提示的输入

from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI, OpenAIEmbeddings

vectorstore = FAISS.from_texts(
["harrison worked at kensho"], embedding=OpenAIEmbeddings()
)
retriever = vectorstore.as_retriever()
template = """Answer the question based only on the following context:
{context}

Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
model = ChatOpenAI()

retrieval_chain = (
{"context": retriever, "question": RunnablePassthrough()}
| prompt
| model
| StrOutputParser()
)

retrieval_chain.invoke("where did harrison work?")
'Harrison worked at Kensho.'

此处提示的输入应为包含键“context”和“question”的映射。用户输入只是问题。因此,我们需要使用检索器获取上下文,并在“question”键下传递用户输入。RunnablePassthrough 允许我们将用户的问题传递到提示和模型。

后续步骤

现在您已经学习了如何通过链传递数据,以帮助格式化流经链的数据。

要了解更多信息,请参阅本节中关于 runnables 的其他操作指南。


此页面是否对您有帮助?