Skip to main content
Open In ColabOpen on GitHub

如何将参数从一个步骤传递到下一个步骤

在构建包含多个步骤的链时,有时您会希望将前几步的数据原封不动地传递,以便作为后续步骤的输入。RunnablePassthrough 类允许您做到这一点,通常与 RunnableParallel 结合使用,将数据传递到构建链中的后续步骤。

请参见以下示例:

%pip install -qU langchain langchain-openai

import os
from getpass import getpass

if "OPENAI_API_KEY" not in os.environ:
os.environ["OPENAI_API_KEY"] = getpass()
from langchain_core.runnables import RunnableParallel, RunnablePassthrough

runnable = RunnableParallel(
passed=RunnablePassthrough(),
modified=lambda x: x["num"] + 1,
)

runnable.invoke({"num": 1})
{'passed': {'num': 1}, 'modified': 2}

如上所示,passed 键被调用了 RunnablePassthrough(),因此它简单地传递了 {'num': 1}

我们还在映射中设置了第二个键modified。这使用了一个lambda来设置一个单一的值,将num加1,结果生成了值为2modified键。

检索示例

在下面的示例中,我们看到了一个更实际的用例,我们在链中使用 RunnablePassthroughRunnableParallel 来正确格式化提示的输入:

from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI, OpenAIEmbeddings

vectorstore = FAISS.from_texts(
["harrison worked at kensho"], embedding=OpenAIEmbeddings()
)
retriever = vectorstore.as_retriever()
template = """Answer the question based only on the following context:
{context}

Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
model = ChatOpenAI()

retrieval_chain = (
{"context": retriever, "question": RunnablePassthrough()}
| prompt
| model
| StrOutputParser()
)

retrieval_chain.invoke("where did harrison work?")
'Harrison worked at Kensho.'

这里的输入到提示符预期是一个包含“context”和“question”键的映射。用户输入仅仅是问题。因此,我们需要使用我们的检索器获取上下文,并通过“question”键传递用户输入。RunnablePassthrough允许我们将用户的问题传递给提示符和模型。

下一步

现在你已经学会了如何通过你的链传递数据,以帮助格式化流经你的链的数据。

要了解更多信息,请参阅本节中关于可运行项的其他操作指南。


这个页面有帮助吗?