langchain_community.vectorstores.pgvector.PGVector

class langchain_community.vectorstores.pgvector.PGVector(connection_string: str, embedding_function: Embeddings, embedding_length: Optional[int] = None, collection_name: str = 'langchain', collection_metadata: Optional[dict] = None, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, logger: Optional[Logger] = None, relevance_score_fn: Optional[Callable[[float], float]] = None, *, connection: Optional[Connection] = None, engine_args: Optional[dict[str, Any]] = None, use_jsonb: bool = False, create_extension: bool = True)[source]

[Deprecated] Postgres/PGVector 向量存储。

已弃用 :此类正在等待弃用,并且可能不会收到更新。在`langchain_postgres`中有一个改进版本的类`PGVector`可用。请改用该类。

迁移时请记住:
  • 新实现与psycopg3一起工作,而不是与psycopg2一起工作 (此实现不与psycopg3一起工作)。

  • 过滤语法已更改为使用$前缀运算符进行JSONB 元数据字段的过滤。(新实现仅使用JSONB字段进行元数据)

  • 新实现对现有实现进行了一些模式更改以解决问题。 因此,您需要重新创建表并重新索引数据,否则进行手动 迁移。

要使用,您应该安装``pgvector`` python包。

参数:

connection_string: Postgres连接字符串。 embedding_function: 任何实现

langchain.embeddings.base.Embeddings 接口的嵌入函数。

embedding_length: 嵌入向量的长度。(默认值:None)

注意:这不是强制性的。定义它将防止其他大小的向量 被添加到嵌入表中,但是,如果没有定义它, 则无法对嵌入进行索引。

collection_name: 要使用的集合名称。(默认值:langchain)

注意:这不是表的名称,而是集合的名称。 在初始化存储时将创建表(如果不存在)。 因此,请确保用户具有创建表的权限。

distance_strategy: 要使用的距离策略。(默认值:COSINE) pre_delete_collection: 如果为True,则如果存在,将删除集合。

(默认值:False)。用于测试。

engine_args: SQLAlchemy的创建引擎参数。 use_jsonb: 使用JSONB而不是JSON进行元数据。(默认值:True)

强烈建议不要使用JSON,因为它不够高效 用于查询。 这里提供了与旧版本向后兼容的JSON,将来会被移除。

create_extension: 如果为True,则如果不存在,将创建向量扩展。

当使用只读数据库时,禁用创建是有用的。

示例:
from langchain_community.vectorstores import PGVector
from langchain_community.embeddings.openai import OpenAIEmbeddings

CONNECTION_STRING = "postgresql+psycopg2://hwc@localhost:5432/test3"
COLLECTION_NAME = "state_of_the_union_test"
embeddings = OpenAIEmbeddings()
vectorestore = PGVector.from_documents(
    embedding=embeddings,
    documents=docs,
    collection_name=COLLECTION_NAME,
    connection_string=CONNECTION_STRING,
    use_jsonb=True,
)

Notes

Deprecated since version 0.0.31: This class is pending deprecation and may be removed in a future version. You can swap to using the PGVector implementation in langchain_postgres. Please read the guidelines in the doc-string of this class to follow prior to migrating as there are some differences between the implementations. See https://github.com/langchain-ai/langchain-postgres for details aboutthe new implementation. Use from langchain_postgres import PGVector; instead.

初始化PGVector存储。

Attributes

distance_strategy

embeddings

如果可用,访问查询嵌入对象。

Methods

__init__(connection_string, embedding_function)

初始化PGVector存储。

aadd_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas])

运行更多的文本通过嵌入,并添加到向量存储中。

add_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

add_embeddings(texts, embeddings[, ...])

将嵌入添加到向量存储中。

add_texts(texts[, metadatas, ids])

运行更多文本通过嵌入并添加到向量存储。

adelete([ids])

根据向量ID或其他条件进行删除。

afrom_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas])

返回从文本和嵌入初始化的VectorStore。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

asimilarity_search(query[, k])

返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

返回文档和相关性分数在范围[0, 1]内,异步执行。

asimilarity_search_with_score(*args, **kwargs)

使用异步方式运行相似性搜索与距离。

connection_string_from_db_params(driver, ...)

从数据库参数返回连接字符串。

create_collection()

create_tables_if_not_exists()

create_vector_extension()

delete([ids, collection_only])

根据id或uuid删除向量。

delete_collection()

drop_tables()

from_documents(documents, embedding[, ...])

返回从文档和嵌入初始化的VectorStore。 需要Postgres连接字符串 “可以作为参数传递 或设置PGVECTOR_CONNECTION_STRING环境变量。

from_embeddings(text_embeddings, embedding)

从原始文档和预生成的嵌入构建PGVector包装器。

from_existing_index(embedding[, ...])

获取现有PGVector存储的实例。此方法将返回存储的实例,而不会插入任何新的嵌入。

from_texts(texts, embedding[, metadatas, ...])

返回从文本和嵌入初始化的VectorStore。 需要Postgres连接字符串。 "可以作为参数传递 或设置PGVECTOR_CONNECTION_STRING环境变量。

get_collection(session)

get_connection_string(kwargs)

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档到嵌入向量。

max_marginal_relevance_search_with_score(query)

返回使用最大边际相关性和分数选择的文档。

max_marginal_relevance_search_with_score_by_vector(...)

使用最大边际相关性和分数返回所选文档的文档。

search(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

similarity_search(query[, k, filter])

使用PGVector进行带距离的相似性搜索。

similarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和相关性得分在[0, 1]范围内。

similarity_search_with_score(query[, k, filter])

返回与查询最相似的文档。

similarity_search_with_score_by_vector(embedding)

Parameters
  • connection_string (str) –

  • embedding_function (Embeddings) –

  • embedding_length (Optional[int]) –

  • collection_name (str) –

  • collection_metadata (Optional[dict]) –

  • distance_strategy (DistanceStrategy) –

  • pre_delete_collection (bool) –

  • logger (Optional[logging.Logger]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • connection (Optional[sqlalchemy.engine.Connection]) –

  • engine_args (Optional[dict[str, Any]]) –

  • use_jsonb (bool) –

  • create_extension (bool) –

Return type

None

__init__(connection_string: str, embedding_function: Embeddings, embedding_length: Optional[int] = None, collection_name: str = 'langchain', collection_metadata: Optional[dict] = None, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, logger: Optional[Logger] = None, relevance_score_fn: Optional[Callable[[float], float]] = None, *, connection: Optional[Connection] = None, engine_args: Optional[dict[str, Any]] = None, use_jsonb: bool = False, create_extension: bool = True) None[source]

初始化PGVector存储。

Parameters
  • connection_string (str) –

  • embedding_function (Embeddings) –

  • embedding_length (Optional[int]) –

  • collection_name (str) –

  • collection_metadata (Optional[dict]) –

  • distance_strategy (DistanceStrategy) –

  • pre_delete_collection (bool) –

  • logger (Optional[Logger]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • connection (Optional[Connection]) –

  • engine_args (Optional[dict[str, Any]]) –

  • use_jsonb (bool) –

  • create_extension (bool) –

Return type

None

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str]

运行更多的文本通过嵌入,并添加到向量存储中。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

add_embeddings(texts: Iterable[str], embeddings: List[List[float]], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

将嵌入添加到向量存储中。

参数:

texts:要添加到向量存储中的字符串的可迭代对象。 embeddings:嵌入向量的列表的列表。 metadatas:与文本相关联的元数据列表。 kwargs:向量存储特定参数。

Parameters
  • texts (Iterable[str]) –

  • embeddings (List[List[float]]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

运行更多文本通过嵌入并添加到向量存储。

参数:

texts:要添加到向量存储的字符串的可迭代对象。 metadatas:与文本相关联的元数据的可选列表。 kwargs:向量存储特定参数

返回:

将文本添加到向量存储中的ID列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST

返回从文本和嵌入初始化的VectorStore。

Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

VST

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, str]]) –

  • kwargs (Any) –

Return type

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此VectorStore初始化的VectorStoreRetriever。

参数:
search_type(可选[str]):定义Retriever应执行的搜索类型。

可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。

search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:

k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选

返回:

VectorStoreRetriever:VectorStore的Retriever类。

示例:

# 检索更多具有更高多样性的文档
# 如果数据集中有许多相似的文档,则很有用
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# 为MMR算法考虑更多文档
# 但只返回前5个
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# 仅检索具有特定阈值以上相关性分数的文档
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# 仅从数据集中获取最相似的单个文档
docsearch.as_retriever(search_kwargs={'k': 1})

# 使用筛选器仅从特定论文中检索文档
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
Parameters

kwargs (Any) –

Return type

VectorStoreRetriever

async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询最相似的文档。

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性分数在范围[0, 1]内,异步执行。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似度分数)的列表

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

使用异步方式运行相似性搜索与距离。

Parameters
  • args (Any) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

classmethod connection_string_from_db_params(driver: str, host: str, port: int, database: str, user: str, password: str) str[source]

从数据库参数返回连接字符串。

Parameters
  • driver (str) –

  • host (str) –

  • port (int) –

  • database (str) –

  • user (str) –

  • password (str) –

Return type

str

create_collection() None[source]
Return type

None

create_tables_if_not_exists() None[source]
Return type

None

create_vector_extension() None[source]
Return type

None

delete(ids: Optional[List[str]] = None, collection_only: bool = False, **kwargs: Any) None[source]

根据id或uuid删除向量。

参数:

ids:要删除的id列表。 collection_only:仅删除集合中的id。

Parameters
  • ids (Optional[List[str]]) –

  • collection_only (bool) –

  • kwargs (Any) –

Return type

None

delete_collection() None[source]
Return type

None

drop_tables() None[source]
Return type

None

classmethod from_documents(documents: List[Document], embedding: Embeddings, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, *, use_jsonb: bool = False, **kwargs: Any) PGVector[source]

返回从文档和嵌入初始化的VectorStore。 需要Postgres连接字符串 “可以作为参数传递 或设置PGVECTOR_CONNECTION_STRING环境变量。

Parameters
  • documents (List[Document]) –

  • embedding (Embeddings) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • ids (Optional[List[str]]) –

  • pre_delete_collection (bool) –

  • use_jsonb (bool) –

  • kwargs (Any) –

Return type

PGVector

classmethod from_embeddings(text_embeddings: List[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[List[dict]] = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, **kwargs: Any) PGVector[source]

从原始文档和预生成的嵌入构建PGVector包装器。

从文档和嵌入初始化VectorStore。 需要Postgres连接字符串 “可以作为参数传递 或设置PGVECTOR_CONNECTION_STRING环境变量。

示例:
from langchain_community.vectorstores import PGVector
from langchain_community.embeddings import OpenAIEmbeddings
embeddings = OpenAIEmbeddings()
text_embeddings = embeddings.embed_documents(texts)
text_embedding_pairs = list(zip(texts, text_embeddings))
faiss = PGVector.from_embeddings(text_embedding_pairs, embeddings)
Parameters
  • text_embeddings (List[Tuple[str, List[float]]]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • ids (Optional[List[str]]) –

  • pre_delete_collection (bool) –

  • kwargs (Any) –

Return type

PGVector

classmethod from_existing_index(embedding: Embeddings, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, **kwargs: Any) PGVector[source]

获取现有PGVector存储的实例。此方法将返回存储的实例,而不会插入任何新的嵌入。

Parameters
  • embedding (Embeddings) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • pre_delete_collection (bool) –

  • kwargs (Any) –

Return type

PGVector

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, *, use_jsonb: bool = False, **kwargs: Any) PGVector[source]

返回从文本和嵌入初始化的VectorStore。 需要Postgres连接字符串。 “可以作为参数传递 或设置PGVECTOR_CONNECTION_STRING环境变量。

Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • ids (Optional[List[str]]) –

  • pre_delete_collection (bool) –

  • use_jsonb (bool) –

  • kwargs (Any) –

Return type

PGVector

get_collection(session: Session) Any[source]
Parameters

session (Session) –

Return type

Any

classmethod get_connection_string(kwargs: Dict[str, Any]) str[source]
Parameters

kwargs (Dict[str, Any]) –

Return type

str

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query (str): 要查找类似文档的文本。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。

默认为20。

lambda_mult (float): 介于0和1之间的数字,确定结果之间多样性的程度,

其中0对应于最大多样性,1对应于最小多样性。 默认为0.5。

filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。

返回:

List[Document]: 通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, str]]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档到嵌入向量。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding (str): 要查找类似文档的文本。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。

默认为20。

lambda_mult (float): 0到1之间的数字,确定结果之间多样性的程度,

0对应最大多样性,1对应最小多样性。 默认为0.5。

filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。

返回:

List[Document]: 通过最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, str]]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_with_score(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[dict] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回使用最大边际相关性和分数选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query (str): 要查找类似文档的文本。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。

默认为20。

lambda_mult (float): 0到1之间的数字,确定结果之间多样性的程度,

0对应最大多样性,1对应最小多样性。 默认为0.5。

filter (Optional[Dict[str, str]]): 按元数据过滤。默认为None。

返回:
List[Tuple[Document, float]]: 通过最大边际相关性选择的文档列表,

以及每个文档的得分。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[dict]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

max_marginal_relevance_search_with_score_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Tuple[Document, float]][source]

使用最大边际相关性和分数返回所选文档的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 要查找相似文档的嵌入。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。默认为20。 lambda_mult (float): 0到1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。 filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。

返回:

List[Tuple[Document, float]]: 通过最大边际相关性选择的文档列表,以及每个文档的得分。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, str]]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

使用PGVector进行带距离的相似性搜索。

参数:

query(str):要搜索的查询文本。 k(int):要返回的结果数量。默认为4。 filter(Optional[Dict[str, str]]):按元数据进行过滤。默认为None。

返回:

与查询最相似的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[dict]) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[dict] = None, **kwargs: Any) List[Document][source]

返回与嵌入向量最相似的文档。

参数:

embedding: 要查找与之相似的文档的嵌入。 k: 要返回的文档数量。默认为4。 filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。

返回:

返回与查询向量最相似的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[dict]) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性得分在[0, 1]范围内。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似性得分)

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 4, filter: Optional[dict] = None) List[Tuple[Document, float]][source]

返回与查询最相似的文档。

参数:

query:要查找与之相似的文档的文本。 k:要返回的文档数量。默认为4。 filter(可选[Dict[str,str]]):按元数据过滤。默认为None。

返回:

与查询最相似的文档列表,以及每个文档的分数。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[dict]) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[dict] = None) List[Tuple[Document, float]][source]
Parameters
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[dict]) –

Return type

List[Tuple[Document, float]]

Examples using PGVector