如何进行按用户检索
本指南演示了如何配置检索链的运行时属性。一个示例应用是根据用户限制检索器可用的文档。
在构建检索应用时,通常需要考虑多个用户。这意味着您可能不仅为一个用户存储数据,而是为许多不同的用户存储数据,并且他们不应该能够看到彼此的数据。这意味着您需要能够配置您的检索链以仅检索某些信息。这通常涉及两个步骤。
步骤1:确保您使用的检索器支持多用户
目前,LangChain 中没有统一的标志或过滤器来处理这个问题。相反,每个向量存储和检索器可能有自己的方法,并且可能被称为不同的东西(命名空间、多租户等)。对于向量存储,这通常作为一个关键字参数在 similarity_search
期间传入。通过阅读文档或源代码,弄清楚你正在使用的检索器是否支持多用户,如果支持,如何使用它。
注意:为不支持(或未记录)多用户的检索器添加文档和/或支持是贡献给LangChain的一个很好的方式
步骤2:将该参数添加为链的可配置字段
这将使您能够轻松调用链并在运行时配置任何相关的标志。有关配置的更多信息,请参阅此文档。
现在,在运行时你可以使用可配置字段调用这个链。
代码示例
让我们看一个具体的代码示例。我们将在这个示例中使用Pinecone。
要配置Pinecone,请设置以下环境变量:
PINECONE_API_KEY
: 您的Pinecone API密钥
from langchain_openai import OpenAIEmbeddings
from langchain_pinecone import PineconeVectorStore
embeddings = OpenAIEmbeddings()
vectorstore = PineconeVectorStore(index_name="test-example", embedding=embeddings)
vectorstore.add_texts(["I worked at Kensho"], namespace="harrison")
vectorstore.add_texts(["I worked at Facebook"], namespace="ankush")
['f907aab7-77c7-4347-acc2-6859f8142f92']
pinecone 的 namespace
参数可用于分隔文档
# This will only get documents for Ankush
vectorstore.as_retriever(search_kwargs={"namespace": "ankush"}).invoke(
"where did i work?"
)
[Document(id='f907aab7-77c7-4347-acc2-6859f8142f92', metadata={}, page_content='I worked at Facebook')]
# This will only get documents for Harrison
vectorstore.as_retriever(search_kwargs={"namespace": "harrison"}).invoke(
"where did i work?"
)
[Document(id='16061fc5-c6fc-4f45-a3b3-23469d7996af', metadata={}, page_content='I worked at Kensho')]
我们现在可以创建用于进行问答的链。
首先让我们选择一个LLM。
pip install -qU langchain-openai
import getpass
import os
if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-4o-mini")
这将遵循RAG教程中的基本实现,但我们将允许检索步骤可配置。
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import ConfigurableField
template = """Answer the question based only on the following context:
{context}
Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
retriever = vectorstore.as_retriever()
在这里,我们将检索器标记为具有可配置字段。所有向量存储检索器都有search_kwargs
作为字段。这只是一个字典,包含向量存储特定的字段。
这将允许我们在调用链时传入一个search_kwargs
的值。
configurable_retriever = retriever.configurable_fields(
search_kwargs=ConfigurableField(
id="search_kwargs",
name="Search Kwargs",
description="The search kwargs to use",
)
)
我们现在可以使用我们可配置的检索器来创建链。
from langchain_core.documents import Document
from langchain_core.runnables import RunnableConfig
from langgraph.graph import START, StateGraph
from typing_extensions import List, TypedDict
class State(TypedDict):
question: str
context: List[Document]
answer: str
def retrieve(state: State, config: RunnableConfig):
retrieved_docs = configurable_retriever.invoke(state["question"])
return {"context": retrieved_docs}
def generate(state: State):
docs_content = "\n\n".join(doc.page_content for doc in state["context"])
messages = prompt.invoke({"question": state["question"], "context": docs_content})
response = llm.invoke(messages)
return {"answer": response.content}
graph_builder = StateGraph(State).add_sequence([retrieve, generate])
graph_builder.add_edge(START, "retrieve")
graph = graph_builder.compile()
from IPython.display import Image, display
display(Image(graph.get_graph().draw_mermaid_png()))
我们现在可以使用可配置选项调用链。search_kwargs
是可配置字段的ID。该值是用于Pinecone的搜索参数。
result = graph.invoke(
{"question": "Where did the user work?"},
config={"configurable": {"search_kwargs": {"namespace": "harrison"}}},
)
result
{'question': 'Where did the user work?',
'context': [Document(id='16061fc5-c6fc-4f45-a3b3-23469d7996af', metadata={}, page_content='I worked at Kensho')],
'answer': 'The user worked at Kensho.'}
result = graph.invoke(
{"question": "Where did the user work?"},
config={"configurable": {"search_kwargs": {"namespace": "ankush"}}},
)
result
{'question': 'Where did the user work?',
'context': [Document(id='f907aab7-77c7-4347-acc2-6859f8142f92', metadata={}, page_content='I worked at Facebook')],
'answer': 'The user worked at Facebook.'}
有关操作您特定向量存储的详细信息,请参阅集成页面。