Skip to main content
Open In ColabOpen on GitHub

Qdrant

Qdrant(读作:quadrant)是一个向量相似性搜索引擎。它提供了一个生产就绪的服务,具有方便的API,用于存储、搜索和管理带有附加负载和扩展过滤支持的向量。这使得它适用于各种神经网络或基于语义的匹配、分面搜索和其他应用。

本文档演示了如何使用Qdrant与Langchain进行密集/稀疏和混合检索。

本页面记录了QdrantVectorStore类,该类通过Qdrant的新Query API支持多种检索模式。它要求您运行Qdrant v1.10.0或更高版本。

设置

有多种模式可以运行Qdrant,根据选择的不同,会有一些细微的差异。选项包括:

  • 本地模式,无需服务器
  • Docker 部署
  • Qdrant 云

查看安装说明

%pip install -qU langchain-qdrant

凭证

运行此笔记本中的代码不需要任何凭据。

如果你想获得最佳的模型调用自动追踪功能,你也可以通过取消下面的注释来设置你的LangSmith API密钥:

# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
# os.environ["LANGSMITH_TRACING"] = "true"

初始化

本地模式

Python客户端允许您在本地模式下运行相同的代码,而无需运行Qdrant服务器。这对于测试和调试或仅存储少量向量非常有用。嵌入可以完全保存在内存中或持久化到磁盘上。

内存中

对于一些测试场景和快速实验,您可能更倾向于将所有数据仅保存在内存中,这样当客户端被销毁时数据就会丢失——通常是在您的脚本/笔记本结束时。

pip install -qU langchain-openai
import getpass
import os

if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(model="text-embedding-3-large")
from langchain_qdrant import QdrantVectorStore
from qdrant_client import QdrantClient
from qdrant_client.http.models import Distance, VectorParams

client = QdrantClient(":memory:")

client.create_collection(
collection_name="demo_collection",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)

vector_store = QdrantVectorStore(
client=client,
collection_name="demo_collection",
embedding=embeddings,
)

磁盘存储

本地模式,不使用Qdrant服务器,也可能将您的向量存储在磁盘上,以便它们在运行之间持久保存。

client = QdrantClient(path="/tmp/langchain_qdrant")

client.create_collection(
collection_name="demo_collection",
vectors_config=VectorParams(size=3072, distance=Distance.COSINE),
)

vector_store = QdrantVectorStore(
client=client,
collection_name="demo_collection",
embedding=embeddings,
)

本地服务器部署

无论您选择使用Docker容器在本地启动Qdrant,还是选择使用官方Helm chart进行Kubernetes部署,连接到此类实例的方式都是相同的。您需要提供一个指向服务的URL。

url = "<---qdrant url here --->"
docs = [] # put docs here
qdrant = QdrantVectorStore.from_documents(
docs,
embeddings,
url=url,
prefer_grpc=True,
collection_name="my_documents",
)

Qdrant 云

如果您不想忙于管理基础设施,可以选择在Qdrant Cloud上设置一个完全托管的Qdrant集群。这里包含一个永久免费的1GB集群供您试用。使用托管版本的Qdrant的主要区别是,您需要提供一个API密钥来保护您的部署不被公开访问。该值也可以在QDRANT_API_KEY环境变量中设置。

url = "<---qdrant cloud cluster url here --->"
api_key = "<---api key here--->"
qdrant = QdrantVectorStore.from_documents(
docs,
embeddings,
url=url,
prefer_grpc=True,
api_key=api_key,
collection_name="my_documents",
)

使用现有集合

要获取一个langchain_qdrant.Qdrant的实例而不加载任何新的文档或文本,你可以使用Qdrant.from_existing_collection()方法。

qdrant = QdrantVectorStore.from_existing_collection(
embedding=embeddings,
collection_name="my_documents",
url="http://localhost:6333",
)

管理向量存储

一旦你创建了你的向量存储,我们可以通过添加和删除不同的项目来与之交互。

添加项目到向量存储

我们可以使用add_documents函数向我们的向量存储中添加项目。

from uuid import uuid4

from langchain_core.documents import Document

document_1 = Document(
page_content="I had chocalate chip pancakes and scrambled eggs for breakfast this morning.",
metadata={"source": "tweet"},
)

document_2 = Document(
page_content="The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees.",
metadata={"source": "news"},
)

document_3 = Document(
page_content="Building an exciting new project with LangChain - come check it out!",
metadata={"source": "tweet"},
)

document_4 = Document(
page_content="Robbers broke into the city bank and stole $1 million in cash.",
metadata={"source": "news"},
)

document_5 = Document(
page_content="Wow! That was an amazing movie. I can't wait to see it again.",
metadata={"source": "tweet"},
)

document_6 = Document(
page_content="Is the new iPhone worth the price? Read this review to find out.",
metadata={"source": "website"},
)

document_7 = Document(
page_content="The top 10 soccer players in the world right now.",
metadata={"source": "website"},
)

document_8 = Document(
page_content="LangGraph is the best framework for building stateful, agentic applications!",
metadata={"source": "tweet"},
)

document_9 = Document(
page_content="The stock market is down 500 points today due to fears of a recession.",
metadata={"source": "news"},
)

document_10 = Document(
page_content="I have a bad feeling I am going to get deleted :(",
metadata={"source": "tweet"},
)

documents = [
document_1,
document_2,
document_3,
document_4,
document_5,
document_6,
document_7,
document_8,
document_9,
document_10,
]
uuids = [str(uuid4()) for _ in range(len(documents))]

vector_store.add_documents(documents=documents, ids=uuids)
API Reference:Document
['c04134c3-273d-4766-949a-eee46052ad32',
'9e6ba50c-794f-4b88-94e5-411f15052a02',
'd3202666-6f2b-4186-ac43-e35389de8166',
'50d8d6ee-69bf-4173-a6a2-b254e9928965',
'bd2eae02-74b5-43ec-9fcf-09e9d9db6fd3',
'6dae6b37-826d-4f14-8376-da4603b35de3',
'b0964ab5-5a14-47b4-a983-37fa5c5bd154',
'91ed6c56-fe53-49e2-8199-c3bb3c33c3eb',
'42a580cb-7469-4324-9927-0febab57ce92',
'ff774e5c-f158-4d12-94e2-0a0162b22f27']

从向量存储中删除项目

vector_store.delete(ids=[uuids[-1]])
True

查询向量存储

一旦您的向量存储已创建并且相关文档已添加,您很可能希望在链或代理运行期间查询它。

直接查询

使用Qdrant向量存储的最简单场景是执行相似性搜索。在底层,我们的查询将被编码为向量嵌入,并用于在Qdrant集合中查找相似的文档。

results = vector_store.similarity_search(
"LangChain provides abstractions to make working with LLMs easy", k=2
)
for res in results:
print(f"* {res.page_content} [{res.metadata}]")
* Building an exciting new project with LangChain - come check it out! [{'source': 'tweet', '_id': 'd3202666-6f2b-4186-ac43-e35389de8166', '_collection_name': 'demo_collection'}]
* LangGraph is the best framework for building stateful, agentic applications! [{'source': 'tweet', '_id': '91ed6c56-fe53-49e2-8199-c3bb3c33c3eb', '_collection_name': 'demo_collection'}]

QdrantVectorStore 支持3种相似性搜索模式。在设置类时,可以使用 retrieval_mode 参数进行配置。

  • 密集向量搜索(默认)
  • 稀疏向量搜索
  • 混合搜索

仅使用密集向量进行搜索,

  • retrieval_mode 参数应设置为 RetrievalMode.DENSE(默认)。
  • 应向embedding参数提供一个dense embeddings值。
from langchain_qdrant import RetrievalMode

qdrant = QdrantVectorStore.from_documents(
docs,
embedding=embeddings,
location=":memory:",
collection_name="my_documents",
retrieval_mode=RetrievalMode.DENSE,
)

query = "What did the president say about Ketanji Brown Jackson"
found_docs = qdrant.similarity_search(query)

仅使用稀疏向量进行搜索,

  • retrieval_mode 参数应设置为 RetrievalMode.SPARSE
  • 必须提供一个使用任何稀疏嵌入提供者实现的SparseEmbeddings接口作为sparse_embedding参数的值。

langchain-qdrant 包提供了一个基于 FastEmbed 的开箱即用实现。

要使用它,请安装FastEmbed包。

%pip install fastembed
from langchain_qdrant import FastEmbedSparse, RetrievalMode

sparse_embeddings = FastEmbedSparse(model_name="Qdrant/bm25")

qdrant = QdrantVectorStore.from_documents(
docs,
sparse_embedding=sparse_embeddings,
location=":memory:",
collection_name="my_documents",
retrieval_mode=RetrievalMode.SPARSE,
)

query = "What did the president say about Ketanji Brown Jackson"
found_docs = qdrant.similarity_search(query)

要使用密集和稀疏向量进行混合搜索并进行分数融合,

  • retrieval_mode 参数应设置为 RetrievalMode.HYBRID
  • 应向embedding参数提供一个dense embeddings值。
  • 必须提供一个使用任何稀疏嵌入提供者实现的SparseEmbeddings接口作为sparse_embedding参数的值。

请注意,如果您已使用HYBRID模式添加了文档,您可以在搜索时切换到任何检索模式。因为集合中既有密集向量也有稀疏向量。

from langchain_qdrant import FastEmbedSparse, RetrievalMode

sparse_embeddings = FastEmbedSparse(model_name="Qdrant/bm25")

qdrant = QdrantVectorStore.from_documents(
docs,
embedding=embeddings,
sparse_embedding=sparse_embeddings,
location=":memory:",
collection_name="my_documents",
retrieval_mode=RetrievalMode.HYBRID,
)

query = "What did the president say about Ketanji Brown Jackson"
found_docs = qdrant.similarity_search(query)

如果你想执行相似性搜索并接收相应的分数,你可以运行:

results = vector_store.similarity_search_with_score(
query="Will it be hot tomorrow", k=1
)
for doc, score in results:
print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.531834] The weather forecast for tomorrow is cloudy and overcast, with a high of 62 degrees. [{'source': 'news', '_id': '9e6ba50c-794f-4b88-94e5-411f15052a02', '_collection_name': 'demo_collection'}]

有关QdrantVectorStore可用的所有搜索功能的完整列表,请阅读API参考

元数据过滤

Qdrant 拥有一个广泛的过滤系统,支持丰富的类型。也可以通过向 similarity_search_with_scoresimilarity_search 方法传递额外参数,在 Langchain 中使用这些过滤器。

from qdrant_client import models

results = vector_store.similarity_search(
query="Who are the best soccer players in the world?",
k=1,
filter=models.Filter(
should=[
models.FieldCondition(
key="page_content",
match=models.MatchValue(
value="The top 10 soccer players in the world right now."
),
),
]
),
)
for doc in results:
print(f"* {doc.page_content} [{doc.metadata}]")
* The top 10 soccer players in the world right now. [{'source': 'website', '_id': 'b0964ab5-5a14-47b4-a983-37fa5c5bd154', '_collection_name': 'demo_collection'}]

通过转换为检索器进行查询

你也可以将向量存储转换为检索器,以便在你的链中更轻松地使用。

retriever = vector_store.as_retriever(search_type="mmr", search_kwargs={"k": 1})
retriever.invoke("Stealing from the bank is a crime")
[Document(metadata={'source': 'news', '_id': '50d8d6ee-69bf-4173-a6a2-b254e9928965', '_collection_name': 'demo_collection'}, page_content='Robbers broke into the city bank and stole $1 million in cash.')]

检索增强生成的使用

有关如何使用此向量存储进行检索增强生成(RAG)的指南,请参阅以下部分:

自定义 Qdrant

在您的Langchain应用程序中,有选项可以使用现有的Qdrant集合。在这种情况下,您可能需要定义如何将Qdrant点映射到Langchain的Document

命名向量

Qdrant 支持通过命名向量实现每个点多个向量。如果您使用外部创建的集合或希望使用不同命名的向量,可以通过提供其名称来配置它。

from langchain_qdrant import RetrievalMode

QdrantVectorStore.from_documents(
docs,
embedding=embeddings,
sparse_embedding=sparse_embeddings,
location=":memory:",
collection_name="my_documents_2",
retrieval_mode=RetrievalMode.HYBRID,
vector_name="custom_vector",
sparse_vector_name="custom_sparse_vector",
)

元数据

Qdrant 存储您的向量嵌入以及可选的类似 JSON 的有效载荷。有效载荷是可选的,但由于 LangChain 假设嵌入是从文档生成的,我们保留了上下文数据,因此您也可以提取原始文本。

默认情况下,您的文档将存储在以下有效载荷结构中:

{
"page_content": "Lorem ipsum dolor sit amet",
"metadata": {
"foo": "bar"
}
}

然而,您可以选择为页面内容和元数据使用不同的键。如果您已经有一个想要重用的集合,这将非常有用。

QdrantVectorStore.from_documents(
docs,
embeddings,
location=":memory:",
collection_name="my_documents_2",
content_payload_key="my_page_content_key",
metadata_payload_key="my_meta",
)

API 参考

有关所有QdrantVectorStore功能和配置的详细文档,请参阅API参考:https://python.langchain.com/api_reference/qdrant/qdrant/langchain_qdrant.qdrant.QdrantVectorStore.html


这个页面有帮助吗?