PGVector#
- class langchain_postgres.vectorstores.PGVector(embeddings: Embeddings, *, connection: None | Engine | str | AsyncEngine = None, embedding_length: int | None = None, collection_name: str = 'langchain', collection_metadata: dict | None = None, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, logger: Logger | None = None, relevance_score_fn: Callable[[float], float] | None = None, engine_args: dict[str, Any] | None = None, use_jsonb: bool = True, create_extension: bool = True, async_mode: bool = False)[source]#
Postgres 向量存储集成。
- Setup:
安装
langchain_postgres
并运行 docker 容器。pip install -qU langchain-postgres docker run --name pgvector-container -e POSTGRES_USER=langchain -e POSTGRES_PASSWORD=langchain -e POSTGRES_DB=langchain -p 6024:5432 -d pgvector/pgvector:pg16
- Key init args — indexing params:
- collection_name: str
集合的名称。
- embeddings: Embeddings
使用的嵌入函数。
- Key init args — client params:
- connection: Union[None, DBConnection, Engine, AsyncEngine, str]
连接字符串或引擎。
- Instantiate:
from langchain_postgres import PGVector from langchain_postgres.vectorstores import PGVector from langchain_openai import OpenAIEmbeddings # See docker command above to launch a postgres instance with pgvector enabled. connection = "postgresql+psycopg://langchain:langchain@localhost:6024/langchain" # Uses psycopg3! collection_name = "my_docs" vector_store = PGVector( embeddings=OpenAIEmbeddings(model="text-embedding-3-large"), collection_name=collection_name, connection=connection, use_jsonb=True, )
- Add Documents:
from langchain_core.documents import Document document_1 = Document(page_content="foo", metadata={"baz": "bar"}) document_2 = Document(page_content="thud", metadata={"bar": "baz"}) document_3 = Document(page_content="i will be deleted :(") documents = [document_1, document_2, document_3] ids = ["1", "2", "3"] vector_store.add_documents(documents=documents, ids=ids)
- Delete Documents:
vector_store.delete(ids=["3"])
- Search:
results = vector_store.similarity_search(query="thud",k=1) for doc in results: print(f"* {doc.page_content} [{doc.metadata}]")
* thud [{'bar': 'baz'}]
- Search with filter:
results = vector_store.similarity_search(query="thud",k=1,filter={"bar": "baz"}) for doc in results: print(f"* {doc.page_content} [{doc.metadata}]")
* thud [{'bar': 'baz'}]
- Search with score:
results = vector_store.similarity_search_with_score(query="qux",k=1) for doc, score in results: print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.499243] foo [{'baz': 'bar'}]
- Async:
# add documents # await vector_store.aadd_documents(documents=documents, ids=ids) # delete documents # await vector_store.adelete(ids=["3"]) # search # results = vector_store.asimilarity_search(query="thud",k=1) # search with score results = await vector_store.asimilarity_search_with_score(query="qux",k=1) for doc,score in results: print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.499243] foo [{'baz': 'bar'}]
- Use as Retriever:
retriever = vector_store.as_retriever( search_type="mmr", search_kwargs={"k": 1, "fetch_k": 2, "lambda_mult": 0.5}, ) retriever.invoke("thud")
[Document(metadata={'bar': 'baz'}, page_content='thud')]
初始化PGVector存储。 对于异步版本,请使用PGVector.acreate()代替。
- Parameters:
connection (Union[None, DBConnection, Engine, AsyncEngine, str]) – Postgres 连接字符串或(异步)引擎。
embeddings (Embeddings) – 任何实现langchain.embeddings.base.Embeddings接口的嵌入函数。
embedding_length (Optional[int]) – 嵌入向量的长度。(默认值:None) 注意:这不是强制性的。定义它将防止任何其他大小的向量被添加到嵌入表中,但如果没有它,嵌入不能被索引。
collection_name (str) – 要使用的集合的名称。(默认值:langchain) 注意:这不是表的名称,而是集合的名称。 表将在初始化存储时创建(如果不存在) 因此,请确保用户具有创建表的正确权限。
distance_strategy (DistanceStrategy) – 使用的距离策略。(默认: COSINE)
pre_delete_collection (bool) – 如果为True,将在集合存在时删除集合。 (默认值: False)。对测试很有用。
engine_args (可选[字典[字符串, 任意类型]]) – SQLAlchemy 的创建引擎参数。
use_jsonb (bool) – 使用 JSONB 而不是 JSON 来存储元数据。(默认值:True) 强烈建议不要使用 JSON,因为它在查询时效率不高。 这里提供它是为了与旧版本向后兼容,未来将会被移除。
create_extension (bool) – 如果为True,将在向量扩展不存在时创建它。禁用创建在使用只读数据库时很有用。
collection_metadata (可选[字典])
logger (可选[logging.Logger])
relevance_score_fn (可选[Callable[[float], float]])
async_mode (bool)
属性
distance_strategy
embeddings
如果可用,访问查询嵌入对象。
方法
__init__
(embeddings, *[, connection, ...])初始化 PGVector 存储。
aadd_documents
(documents, **kwargs)异步运行更多文档通过嵌入并添加到向量存储中。
aadd_embeddings
(texts, embeddings[, ...])异步将嵌入添加到向量存储中。
aadd_texts
(texts[, metadatas, ids])通过嵌入运行更多文本并将其添加到向量存储中。
add_documents
(documents, **kwargs)在向量存储中添加或更新文档。
add_embeddings
(texts, embeddings[, ...])将嵌入添加到向量存储中。
add_texts
(texts[, metadatas, ids])通过嵌入运行更多文本并将其添加到向量存储中。
adelete
([ids, collection_only])异步通过ID或UUID删除向量。
afrom_documents
(documents, embedding[, ...])返回从文档和嵌入初始化的VectorStore。
afrom_embeddings
(text_embeddings, embedding)从原始文档和预生成的嵌入构建PGVector包装器。
afrom_existing_index
(embedding, *[, ...])获取现有PGVector存储的实例。此方法将返回存储的实例,而不插入任何新的嵌入
afrom_texts
(texts, embedding[, metadatas, ...])返回从文档和嵌入初始化的VectorStore。
aget_by_ids
(ids, /)通过ID获取文档。
aget_collection
(session)amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档
返回使用最大边际相关性选择的文档及其分数。
返回使用最大边际相关性选择的文档及其分数
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步返回与查询最相似的文档,使用指定的搜索类型。
asimilarity_search
(query[, k, filter])使用PGVector进行带距离的相似性搜索。
asimilarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
异步返回文档和相关度分数,范围在[0, 1]之间。
asimilarity_search_with_score
(query[, k, filter])返回与查询最相似的文档。
connection_string_from_db_params
(driver, ...)从数据库参数返回连接字符串。
delete
([ids, collection_only])通过ID或UUID删除向量。
from_documents
(documents, embedding, *[, ...])返回从文档和嵌入初始化的VectorStore。
from_embeddings
(text_embeddings, embedding, *)从原始文档和嵌入向量构建PGVector包装器。
from_existing_index
(embedding, *[, ...])获取现有PGVector存储的实例。此方法将返回存储的实例,而不会插入任何新的嵌入
from_texts
(texts, embedding[, metadatas, ...])返回从文档和嵌入初始化的VectorStore。
get_by_ids
(ids, /)通过ID获取文档。
get_collection
(session)get_connection_string
(kwargs)max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档
返回使用最大边际相关性选择的文档及其分数。
返回使用最大边际相关性选择的文档及其分数
search
(query, search_type, **kwargs)使用指定的搜索类型返回与查询最相似的文档。
similarity_search
(query[, k, filter])使用PGVector进行带距离的相似性搜索。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关度分数,范围在[0, 1]之间。
similarity_search_with_score
(query[, k, filter])返回与查询最相似的文档。
similarity_search_with_score_by_vector
(embedding)- __init__(embeddings: Embeddings, *, connection: None | Engine | str | AsyncEngine = None, embedding_length: int | None = None, collection_name: str = 'langchain', collection_metadata: dict | None = None, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, logger: Logger | None = None, relevance_score_fn: Callable[[float], float] | None = None, engine_args: dict[str, Any] | None = None, use_jsonb: bool = True, create_extension: bool = True, async_mode: bool = False) None [source]#
初始化PGVector存储。 对于异步版本,请使用PGVector.acreate()代替。
- Parameters:
connection (None | Engine | str | AsyncEngine) – Postgres 连接字符串或(异步)引擎。
embeddings (Embeddings) – 任何实现langchain.embeddings.base.Embeddings接口的嵌入函数。
embedding_length (int | None) – 嵌入向量的长度。(默认值:None) 注意:这不是强制性的。定义它将防止任何其他大小的向量被添加到嵌入表中,但如果没有它,嵌入不能被索引。
collection_name (str) – 要使用的集合的名称。(默认值:langchain) 注意:这不是表的名称,而是集合的名称。 表将在初始化存储时创建(如果不存在) 因此,请确保用户具有创建表的正确权限。
distance_strategy (DistanceStrategy) – 使用的距离策略。(默认: COSINE)
pre_delete_collection (bool) – 如果为True,将在集合存在时删除集合。 (默认值: False)。对测试很有用。
engine_args (dict[str, Any] | None) – SQLAlchemy 的创建引擎参数。
use_jsonb (bool) – 使用 JSONB 而不是 JSON 来存储元数据。(默认值:True) 强烈建议不要使用 JSON,因为它在查询时效率不高。 这里提供它是为了与旧版本向后兼容,未来将会被移除。
create_extension (bool) – 如果为True,将在向量扩展不存在时创建它。禁用创建在使用只读数据库时很有用。
collection_metadata (dict | None)
logger (Logger | None)
relevance_score_fn (Callable[[float], float] | None)
async_mode (bool)
- Return type:
无
- async aadd_documents(documents: list[Document], **kwargs: Any) list[str] #
通过嵌入异步运行更多文档并将其添加到向量存储中。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果ID的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- async aadd_embeddings(texts: Sequence[str], embeddings: List[List[float]], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [source]#
异步将嵌入添加到向量存储中。
- Parameters:
texts (Sequence[str]) – 要添加到向量存储中的字符串的可迭代对象。
embeddings (List[List[float]]) – 嵌入向量的列表的列表。
metadatas (List[dict] | None) – 与文本相关联的元数据列表。
ids (List[str] | None) – 可选的文本ID列表。 如果未提供,将为每个文本生成一个新的ID。
kwargs (Any) – 向量存储特定参数
- Return type:
列表[str]
- async aadd_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [source]#
通过嵌入运行更多文本并添加到向量存储中。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的字符串的可迭代对象。
metadatas (List[dict] | None) – 可选的与文本关联的元数据列表。
ids (List[str] | None) – 可选的文本ID列表。 如果未提供,将为每个文本生成一个新的ID。
kwargs (Any) – 向量存储特定参数
- Returns:
将文本添加到向量存储中后的ID列表。
- Return type:
列表[str]
- add_documents(documents: list[Document], **kwargs: Any) list[str] #
在向量存储中添加或更新文档。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果id的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- add_embeddings(texts: Sequence[str], embeddings: List[List[float]], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [source]#
将嵌入添加到向量存储中。
- Parameters:
texts (Sequence[str]) – 要添加到向量存储中的字符串的可迭代对象。
embeddings (List[List[float]]) – 嵌入向量的列表的列表。
metadatas (List[dict] | None) – 与文本相关联的元数据列表。
ids (List[str] | None) – 可选的文档ID列表。 如果未提供,将为每个文档生成一个新的ID。
kwargs (Any) – 向量存储特定参数
- Return type:
列表[str]
- add_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [source]#
通过嵌入运行更多文本并添加到向量存储中。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的字符串的可迭代对象。
metadatas (List[dict] | None) – 可选的与文本关联的元数据列表。
ids (List[str] | None) – 可选的文本ID列表。 如果未提供,将为每个文本生成一个新的ID。
kwargs (Any) – 向量存储特定参数
- Returns:
将文本添加到向量存储中后的ID列表。
- Return type:
列表[str]
- async adelete(ids: List[str] | None = None, collection_only: bool = False, **kwargs: Any) None [source]#
通过ID或UUID异步删除向量。
- Parameters:
ids (List[str] | None) – 要删除的ID列表。
collection_only (bool) – 仅删除集合中的ID。
kwargs (Any)
- Return type:
无
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: List[str] | None = None, pre_delete_collection: bool = False, *, use_jsonb: bool = True, **kwargs: Any) PGVector [source]#
返回从文档和嵌入初始化的VectorStore。 需要Postgres连接字符串 “可以将其作为参数传递 或设置PGVECTOR_CONNECTION_STRING环境变量。
- Parameters:
文档 (列表[Document])
embedding (Embeddings)
collection_name (str)
distance_strategy (DistanceStrategy)
ids (列表[字符串] | 无)
pre_delete_collection (bool)
use_jsonb (bool)
kwargs (Any)
- Return type:
- async classmethod afrom_embeddings(text_embeddings: List[Tuple[str, List[float]]], embedding: Embeddings, metadatas: List[dict] | None = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: List[str] | None = None, pre_delete_collection: bool = False, **kwargs: Any) PGVector [source]#
从原始文档和预生成的嵌入中构建PGVector包装器。
返回从文档和嵌入初始化的VectorStore。 需要Postgres连接字符串 “可以将其作为参数传递 或者设置PGVECTOR_CONNECTION_STRING环境变量。
示例
from langchain_community.vectorstores import PGVector from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() text_embeddings = embeddings.embed_documents(texts) text_embedding_pairs = list(zip(texts, text_embeddings)) faiss = PGVector.from_embeddings(text_embedding_pairs, embeddings)
- Parameters:
text_embeddings (List[Tuple[str, List[float]]])
embedding (Embeddings)
metadatas (列表[字典] | 无)
collection_name (str)
distance_strategy (DistanceStrategy)
ids (列表[字符串] | 无)
pre_delete_collection (bool)
kwargs (Any)
- Return type:
- async classmethod afrom_existing_index(embedding: Embeddings, *, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, connection: Engine | str | None = None, **kwargs: Any) PGVector [source]#
获取现有PGVector存储的实例。此方法将返回存储的实例,而不会插入任何新的嵌入。
- Parameters:
embedding (Embeddings)
collection_name (str)
distance_strategy (DistanceStrategy)
pre_delete_collection (bool)
connection (Engine | str | None)
kwargs (Any)
- Return type:
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: List[str] | None = None, pre_delete_collection: bool = False, *, use_jsonb: bool = True, **kwargs: Any) PGVector [source]#
返回从文档和嵌入初始化的VectorStore。
- Parameters:
文本 (列表[字符串])
embedding (Embeddings)
metadatas (列表[字典] | 无)
collection_name (str)
distance_strategy (DistanceStrategy)
ids (列表[字符串] | 无)
pre_delete_collection (bool)
use_jsonb (bool)
kwargs (Any)
- Return type:
- async aget_by_ids(ids: Sequence[str], /) List[Document] [source]#
通过ID获取文档。
- Parameters:
ids (序列[str])
- Return type:
列表[文档]
- async aget_collection(session: AsyncSession) Any [source]#
- Parameters:
session (AsyncSession)
- Return type:
任何
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, str] | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, str] | None = None, **kwargs: Any) List[Document] [source]#
- Return docs selected using the maximal marginal relevance
转换为嵌入向量。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
embedding (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- async amax_marginal_relevance_search_with_score(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict | None = None, **kwargs: Any) List[Tuple[Document, float]] [source]#
返回使用最大边际相关性选择的文档及其分数。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
- 通过最大边际选择的文档列表
与查询的相关性及每个文档的得分。
- Return type:
列表[元组[Document, 浮点数]]
- async amax_marginal_relevance_search_with_score_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, str] | None = None, **kwargs: Any) List[Tuple[Document, float]] [source]#
- Return docs selected using the maximal marginal relevance with score
转换为嵌入向量。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
- 通过最大边际选择的文档列表
与查询的相关性及每个文档的得分。
- Return type:
列表[元组[Document, 浮点数]]
- as_retriever(**kwargs: Any) VectorStoreRetriever #
返回从此VectorStore初始化的VectorStoreRetriever。
- Parameters:
**kwargs (Any) –
传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
- search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
- 可以包括以下内容:
k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值
用于similarity_score_threshold
- fetch_k: 传递给MMR算法的文档数量
(默认:20)
- lambda_mult: MMR返回结果的多样性;
1表示最小多样性,0表示最大多样性。(默认:0.5)
filter: 按文档元数据过滤
- Returns:
VectorStore的检索器类。
- Return type:
示例:
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) list[Document] #
异步返回与查询最相似的文档,使用指定的搜索类型。
- Parameters:
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- async asimilarity_search(query: str, k: int = 4, filter: dict | None = None, **kwargs: Any) List[Document] [source]#
使用PGVector进行带距离的相似性搜索。
- Parameters:
query (str) – 要搜索的查询文本。
k (int) – 返回的结果数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
与查询最相似的文档列表。
- Return type:
列表[文档]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: dict | None = None, **kwargs: Any) List[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[文档]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
异步返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
(文档,相似度分数)的元组列表
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: dict | None = None) List[Tuple[Document, float]] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
- Returns:
与查询最相似的文档列表及每个文档的得分。
- Return type:
列表[元组[文档, 浮点数]]
- async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: dict | None = None) List[Tuple[Document, float]] [source]#
- Parameters:
embedding (列表[浮点数])
k (整数)
filter (字典 | 无)
- Return type:
列表[元组[文档, 浮点数]]
- classmethod connection_string_from_db_params(driver: str, host: str, port: int, database: str, user: str, password: str) str [source]#
从数据库参数返回连接字符串。
- Parameters:
driver (str)
host (str)
port (int)
数据库 (str)
用户 (字符串)
password (str)
- Return type:
字符串
- delete(ids: List[str] | None = None, collection_only: bool = False, **kwargs: Any) None [source]#
通过ID或UUID删除向量。
- Parameters:
ids (List[str] | None) – 要删除的ID列表。
collection_only (bool) – 仅删除集合中的ID。
kwargs (Any)
- Return type:
无
- classmethod from_documents(documents: List[Document], embedding: Embeddings, *, connection: Engine | str | None = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: List[str] | None = None, pre_delete_collection: bool = False, use_jsonb: bool = True, **kwargs: Any) PGVector [source]#
返回从文档和嵌入初始化的VectorStore。
- Parameters:
文档 (列表[Document])
embedding (Embeddings)
connection (Engine | str | None)
collection_name (str)
distance_strategy (DistanceStrategy)
ids (列表[字符串] | 无)
pre_delete_collection (bool)
use_jsonb (bool)
kwargs (Any)
- Return type:
- classmethod from_embeddings(text_embeddings: List[Tuple[str, List[float]]], embedding: Embeddings, *, metadatas: List[dict] | None = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: List[str] | None = None, pre_delete_collection: bool = False, **kwargs: Any) PGVector [source]#
从原始文档和嵌入构建PGVector包装器。
- Parameters:
text_embeddings (List[Tuple[str, List[float]]]) – 文本和嵌入的元组列表。
embedding (Embeddings) – 嵌入对象。
metadatas (List[dict] | None) – 可选的与文本关联的元数据列表。
collection_name (str) – 集合的名称。
distance_strategy (DistanceStrategy) – 使用的距离策略。
ids (List[str] | None) – 可选的文档ID列表。 如果未提供,将为每个文档生成一个新的ID。
pre_delete_collection (bool) – 如果为True,将删除已存在的集合。 注意: 这将删除现有集合中的所有文档。
kwargs (Any) – 额外的参数。
- Returns:
PGVector 实例。
- Return type:
示例
from langchain_postgres.vectorstores import PGVector from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() text_embeddings = embeddings.embed_documents(texts) text_embedding_pairs = list(zip(texts, text_embeddings)) vectorstore = PGVector.from_embeddings(text_embedding_pairs, embeddings)
- classmethod from_existing_index(embedding: Embeddings, *, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, connection: Engine | str | None = None, **kwargs: Any) PGVector [source]#
获取现有PGVector存储的实例。此方法将返回存储的实例,而不会插入任何新的嵌入。
- Parameters:
embedding (Embeddings)
collection_name (str)
distance_strategy (DistanceStrategy)
pre_delete_collection (bool)
connection (Engine | str | None)
kwargs (Any)
- Return type:
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, *, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: List[str] | None = None, pre_delete_collection: bool = False, use_jsonb: bool = True, **kwargs: Any) PGVector [来源]#
返回从文档和嵌入初始化的VectorStore。
- Parameters:
文本 (列表[字符串])
embedding (Embeddings)
metadatas (列表[字典] | 无)
collection_name (str)
distance_strategy (DistanceStrategy)
ids (列表[字符串] | 无)
pre_delete_collection (bool)
use_jsonb (bool)
kwargs (Any)
- Return type:
- get_by_ids(ids: Sequence[str], /) List[Document] [source]#
通过ID获取文档。
- Parameters:
ids (序列[str])
- Return type:
列表[文档]
- classmethod get_connection_string(kwargs: Dict[str, Any]) str [source]#
- Parameters:
kwargs (Dict[str, Any])
- Return type:
字符串
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, str] | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, str] | None = None, **kwargs: Any) List[Document] [source]#
- Return docs selected using the maximal marginal relevance
转换为嵌入向量。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
embedding (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- max_marginal_relevance_search_with_score(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict | None = None, **kwargs: Any) List[Tuple[Document, float]] [source]#
返回使用最大边际相关性选择的文档及其分数。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
- 通过最大边际选择的文档列表
与查询的相关性及每个文档的得分。
- Return type:
列表[元组[Document, 浮点数]]
- max_marginal_relevance_search_with_score_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, str] | None = None, **kwargs: Any) List[Tuple[Document, float]] [来源]#
- Return docs selected using the maximal marginal relevance with score
转换为嵌入向量。
- Maximal marginal relevance optimizes for similarity to query AND diversity
在选定的文档中。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
- 通过最大边际选择的文档列表
与查询的相关性及每个文档的得分。
- Return type:
列表[元组[Document, 浮点数]]
- search(query: str, search_type: str, **kwargs: Any) list[Document] #
使用指定的搜索类型返回与查询最相似的文档。
- Parameters:
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- similarity_search(query: str, k: int = 4, filter: dict | None = None, **kwargs: Any) List[Document] [source]#
使用PGVector进行带距离的相似性搜索。
- Parameters:
query (str) – 要搜索的查询文本。
k (int) – 返回的结果数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
与查询最相似的文档列表。
- Return type:
列表[文档]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: dict | None = None, **kwargs: Any) List[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
kwargs (Any)
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[文档]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
用于过滤检索到的文档集。
- Returns:
(文档, 相似度分数) 的元组列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score(query: str, k: int = 4, filter: dict | None = None) List[Tuple[Document, float]] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。默认为 None。
- Returns:
与查询最相似的文档列表及每个文档的得分。
- Return type:
列表[元组[文档, 浮点数]]
使用 PGVector 的示例