langchain_community.vectorstores.vdms.VDMS

class langchain_community.vectorstores.vdms.VDMS(client: vdms.vdms, *, embedding: Optional[Embeddings] = None, collection_name: str = 'langchain', distance_strategy: DISTANCE_METRICS = 'L2', engine: ENGINES = 'FaissFlat', relevance_score_fn: Optional[Callable[[float], float]] = None)[source]

Intel Lab的VDMS用于向量存储工作负载。

要使用,您应该同时具备以下条件: - 安装了``vdms`` python包 - 与部署的VDMS服务器关联的主机(str)和端口(int)

访问 https://github.com/IntelLabs/vdms/wiki 获取更多信息。

强烈建议对数据进行规范化。

参数:

client: 用于连接到VDMS服务器的VDMS客户端 collection_name: 数据集合的名称 [默认值:langchain] distance_strategy: 用于计算距离的方法。VDMS支持

“L2”(欧几里德距离)或”IP”(内积) [默认值:L2]

engine: 用于索引和计算距离的基础实现。

VDMS支持TileDBDense、TileDBSparse、FaissFlat、FaissIVFFlat和Flinng [默认值:FaissFlat]

embedding: 实现`langchain_core.embeddings.Embeddings`接口的任何嵌入函数。 relevance_score_fn: 用于获取相关性分数的函数

示例:
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.vectorstores.vdms import VDMS, VDMS_Client

vectorstore = VDMS(
    client=VDMS_Client("localhost", 55555),
    embedding=HuggingFaceEmbeddings(),
    collection_name="langchain-demo",
    distance_strategy="L2",
    engine="FaissFlat",
)

Attributes

embeddings

如果可用,访问查询嵌入对象。

Methods

__init__(client, *[, embedding, ...])

aadd_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas])

运行更多的文本通过嵌入,并添加到向量存储中。

add_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

add_images(uris[, metadatas, ids, ...])

运行更多的图像通过嵌入并添加到向量存储。

add_texts(texts[, metadatas, ids, batch_size])

运行更多文本通过嵌入并添加到向量存储。

adelete([ids])

根据向量ID或其他条件进行删除。

afrom_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas])

返回从文本和嵌入初始化的VectorStore。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

asimilarity_search(query[, k])

返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

返回文档和相关性分数在范围[0, 1]内,异步执行。

asimilarity_search_with_score(*args, **kwargs)

使用异步方式运行相似性搜索与距离。

count(collection_name)

decode_image(base64_image)

delete([ids, collection_name, constraints])

根据ID删除。这些是向量存储中的ID。

encode_image(image_path)

from_documents(documents[, embedding, ids, ...])

从文档列表创建一个VDMS向量存储。

from_texts(texts[, embedding, metadatas, ...])

从原始文档创建一个VDMS向量存储。

get(collection_name[, constraints, limit, ...])

获取集合。 从数据存储中获取嵌入及其关联数据。 如果未提供约束条件,则返回所有嵌入直到限制为止。

get_descriptor_response(command_str, setname)

get_k_candidates(setname, fetch_k[, ...])

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

max_marginal_relevance_search_with_score(query)

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

max_marginal_relevance_search_with_score_by_vector(...)

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

query_collection_embeddings([...])

search(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

similarity_search(query[, k, fetch_k, filter])

运行使用VDMS进行相似性搜索。

similarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。 参数: embedding(List[float]):要查找相似文档的嵌入。 k(int):要返回的文档数量。默认为3。 fetch_k(int):用于knn的要获取的候选数(>= k)。 filter(Optional[Dict[str, str]]):按元数据过滤。默认为None。 返回: 与查询向量最相似的文档列表。

similarity_search_with_relevance_scores(query)

返回文档和相关性得分在[0, 1]范围内。

similarity_search_with_score(query[, k, ...])

运行带有距离的VDMS相似性搜索。

similarity_search_with_score_by_vector(embedding)

返回与嵌入向量和相似度分数最相似的文档。

update_document(collection_name, ...)

更新集合中的文档。

update_documents(collection_name, ids, documents)

更新集合中的文档。

Parameters
  • client (vdms.vdms) –

  • embedding (Optional[Embeddings]) –

  • collection_name (str) –

  • distance_strategy (DISTANCE_METRICS) –

  • engine (ENGINES) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

Return type

None

__init__(client: vdms.vdms, *, embedding: Optional[Embeddings] = None, collection_name: str = 'langchain', distance_strategy: DISTANCE_METRICS = 'L2', engine: ENGINES = 'FaissFlat', relevance_score_fn: Optional[Callable[[float], float]] = None) None[source]
Parameters
  • client (vdms.vdms) –

  • embedding (Optional[Embeddings]) –

  • collection_name (str) –

  • distance_strategy (DISTANCE_METRICS) –

  • engine (ENGINES) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

Return type

None

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str]

运行更多的文本通过嵌入,并添加到向量存储中。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

add_images(uris: List[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, batch_size: int = 32, add_path: Optional[bool] = True, **kwargs: Any) List[str][source]

运行更多的图像通过嵌入并添加到向量存储。

图像被添加为嵌入(AddDescriptor),而不是在VDMS中作为单独的实体(AddImage)添加,以利用相似性搜索功能。

参数:

uris:要添加到向量存储的图像路径列表。 metadatas:与文本相关的元数据的可选列表。 ids:唯一ID的可选列表。 batch_size(int):发送到服务器的并发请求数量。 add_path:将图像路径作为元数据添加的布尔值。

返回:

将图像添加到向量存储中的ID列表。

Parameters
  • uris (List[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • add_path (Optional[bool]) –

  • kwargs (Any) –

Return type

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, batch_size: int = 32, **kwargs: Any) List[str][source]

运行更多文本通过嵌入并添加到向量存储。

参数:

texts:要添加到向量存储的字符串列表。 metadatas:与文本相关的元数据的可选列表。 ids:唯一ID的可选列表。 batch_size(int):发送到服务器的并发请求数量。

返回:

将文本添加到向量存储中的ID列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • kwargs (Any) –

Return type

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST

返回从文本和嵌入初始化的VectorStore。

Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

VST

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此VectorStore初始化的VectorStoreRetriever。

参数:
search_type(可选[str]):定义Retriever应执行的搜索类型。

可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。

search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:

k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选

返回:

VectorStoreRetriever:VectorStore的Retriever类。

示例:

# 检索更多具有更高多样性的文档
# 如果数据集中有许多相似的文档,则很有用
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# 为MMR算法考虑更多文档
# 但只返回前5个
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# 仅检索具有特定阈值以上相关性分数的文档
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# 仅从数据集中获取最相似的单个文档
docsearch.as_retriever(search_kwargs={'k': 1})

# 使用筛选器仅从特定论文中检索文档
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
Parameters

kwargs (Any) –

Return type

VectorStoreRetriever

async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询最相似的文档。

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性分数在范围[0, 1]内,异步执行。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似度分数)的列表

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

使用异步方式运行相似性搜索与距离。

Parameters
  • args (Any) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

count(collection_name: str) int[source]
Parameters

collection_name (str) –

Return type

int

decode_image(base64_image: str) bytes[source]
Parameters

base64_image (str) –

Return type

bytes

delete(ids: Optional[List[str]] = None, collection_name: Optional[str] = None, constraints: Optional[Dict] = None, **kwargs: Any) bool[source]

根据ID删除。这些是向量存储中的ID。

参数:

ids:要删除的ID列表。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • collection_name (Optional[str]) –

  • constraints (Optional[Dict]) –

  • kwargs (Any) –

Return type

bool

encode_image(image_path: str) str[source]
Parameters

image_path (str) –

Return type

str

classmethod from_documents(documents: List[Document], embedding: Optional[Embeddings] = None, ids: Optional[List[str]] = None, batch_size: int = 32, collection_name: str = 'langchain', **kwargs: Any) VDMS[source]

从文档列表创建一个VDMS向量存储。

参数:

collection_name (str): 要创建的集合的名称。 documents (List[Document]): 要添加到向量存储的文档列表。 embedding (Embeddings): 嵌入函数。默认为None。 ids (Optional[List[str]]): 文档ID列表。默认为None。 batch_size (int): 发送到服务器的并发请求数量。

返回:

VDMS: VDMS向量存储。

Parameters
  • documents (List[Document]) –

  • embedding (Optional[Embeddings]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • collection_name (str) –

  • kwargs (Any) –

Return type

VDMS

classmethod from_texts(texts: List[str], embedding: Optional[Embeddings] = None, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, batch_size: int = 32, collection_name: str = 'langchain', **kwargs: Any) VDMS[source]

从原始文档创建一个VDMS向量存储。

参数:

texts (List[str]): 要添加到集合中的文本列表。 embedding (Embeddings): 嵌入函数。默认为None。 metadatas (Optional[List[dict]]): 元数据列表。默认为None。 ids (Optional[List[str]]): 文档ID列表。默认为None。 batch_size (int): 发送到服务器的并发请求数量。 collection_name (str): 要创建的集合的名称。

返回:

VDMS: VDMS向量存储。

Parameters
  • texts (List[str]) –

  • embedding (Optional[Embeddings]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • collection_name (str) –

  • kwargs (Any) –

Return type

VDMS

get(collection_name: str, constraints: Optional[Dict] = None, limit: Optional[int] = None, include: List[str] = ['metadata']) Tuple[Any, Any][source]

获取集合。 从数据存储中获取嵌入及其关联数据。 如果未提供约束条件,则返回所有嵌入直到限制为止。

参数:
约束条件:用于筛选结果的字典。

例如 {“color” : [“==”, “red”], “price”: [“>”, 4.00]}。可选。

限制:要返回的文档数量。可选。 包含:要包含在结果中的内容列表。

可包含 “embeddings”, “metadatas”, “documents”。 ID始终包含在内。 默认为 [“metadatas”, “documents”]。可选。

Parameters
  • collection_name (str) –

  • constraints (Optional[Dict]) –

  • limit (Optional[int]) –

  • include (List[str]) –

Return type

Tuple[Any, Any]

get_descriptor_response(command_str: str, setname: str, k_neighbors: int = 3, fetch_k: int = 15, constraints: Optional[dict] = None, results: Optional[Dict[str, Any]] = None, query_embedding: Optional[List[float]] = None, normalize_distance: bool = False) Tuple[List[Dict[str, Any]], List][source]
Parameters
  • command_str (str) –

  • setname (str) –

  • k_neighbors (int) –

  • fetch_k (int) –

  • constraints (Optional[dict]) –

  • results (Optional[Dict[str, Any]]) –

  • query_embedding (Optional[List[float]]) –

  • normalize_distance (bool) –

Return type

Tuple[List[Dict[str, Any]], List]

get_k_candidates(setname: str, fetch_k: Optional[int], results: Optional[Dict[str, Any]] = None, all_blobs: Optional[List] = None, normalize: Optional[bool] = False) Tuple[List[Dict[str, Any]], List, float][source]
Parameters
  • setname (str) –

  • fetch_k (Optional[int]) –

  • results (Optional[Dict[str, Any]]) –

  • all_blobs (Optional[List]) –

  • normalize (Optional[bool]) –

Return type

Tuple[List[Dict[str, Any]], List, float]

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,

其中0对应于最大多样性,1对应于最小多样性。 默认为0.5。

filter(可选[Dict[str,str]]):按元数据筛选。默认为None。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 3, fetch_k: int = 15, lambda_mult: float = 0.5, filter: Optional[Dict[str, List]] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 查找与之相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 要获取的文档数量,以传递给MMR算法。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,

其中0对应于最大多样性,1对应于最小多样性。 默认为0.5。

filter (Optional[Dict[str, str]]): 按元数据过滤。默认为None。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_with_score(query: str, k: int = 3, fetch_k: int = 15, lambda_mult: float = 0.5, filter: Optional[Dict[str, List]] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,

其中0对应于最大多样性,1对应于最小多样性。 默认为0.5。

filter(可选[Dict[str,str]]):按元数据筛选。默认为None。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

max_marginal_relevance_search_with_score_by_vector(embedding: List[float], k: int = 3, fetch_k: int = 15, lambda_mult: float = 0.5, filter: Optional[Dict[str, List]] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回使用最大边际相关性选择的文档。 最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 查找与之相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 要获取的文档数量,以传递给MMR算法。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,

其中0对应于最大多样性,1对应于最小多样性。 默认为0.5。

filter (Optional[Dict[str, str]]): 按元数据过滤。默认为None。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

query_collection_embeddings(query_embeddings: Optional[List[List[float]]] = None, collection_name: Optional[str] = None, n_results: int = 3, fetch_k: int = 15, filter: Union[None, Dict[str, Any]] = None, results: Union[None, Dict[str, Any]] = None, normalize_distance: bool = False, **kwargs: Any) List[Tuple[Dict[str, Any], List]][source]
Parameters
  • query_embeddings (Optional[List[List[float]]]) –

  • collection_name (Optional[str]) –

  • n_results (int) –

  • fetch_k (int) –

  • filter (Union[None, Dict[str, Any]]) –

  • results (Union[None, Dict[str, Any]]) –

  • normalize_distance (bool) –

  • kwargs (Any) –

Return type

List[Tuple[Dict[str, Any], List]]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

运行使用VDMS进行相似性搜索。

参数:

query (str): 要搜索的查询文本。 k (int): 要返回的结果数量。默认为3。 fetch_k (int): 要获取的knn候选数(>= k)。 filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。

返回:

List[Document]: 与查询文本最相似的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 3, fetch_k: int = 15, filter: Optional[Dict[str, List]] = None, **kwargs: Any) List[Document][source]

返回与嵌入向量最相似的文档。 参数:

embedding(List[float]):要查找相似文档的嵌入。 k(int):要返回的文档数量。默认为3。 fetch_k(int):用于knn的要获取的候选数(>= k)。 filter(Optional[Dict[str, str]]):按元数据过滤。默认为None。

返回:

与查询向量最相似的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性得分在[0, 1]范围内。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似性得分)

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 3, fetch_k: int = 15, filter: Optional[Dict[str, List]] = None, **kwargs: Any) List[Tuple[Document, float]][source]

运行带有距离的VDMS相似性搜索。

参数:

query(str):要搜索的查询文本。 k(int):要返回的结果数量。默认为3。 fetch_k(int):要获取的knn候选数(>= k)。 filter(Optional[Dict[str, str]]):按元数据过滤。默认为None。

返回:

List[Tuple[Document, float]]:与查询文本最相似的文档列表,以及每个文档的余弦距离浮点数。 较低的分数表示更相似。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 3, fetch_k: int = 15, filter: Optional[Dict[str, List]] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回与嵌入向量和相似度分数最相似的文档。

参数:

embedding (List[float]): 要查找相似文档的嵌入向量。 k (int): 要返回的文档数量。默认为3。 fetch_k (int): 要获取的knn候选数(>= k)。 filter (Optional[Dict[str, str]]): 按元数据过滤。默认为None。

返回:

List[Tuple[Document, float]]: 与查询文本最相似的文档列表,以及每个文档的余弦距离浮点数。 较低的分数表示更相似。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • filter (Optional[Dict[str, List]]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

update_document(collection_name: str, document_id: str, document: Document) None[source]

更新集合中的文档。

参数:

document_id (str): 需要更新的文档的ID。 document (Document): 需要更新的文档。

Parameters
  • collection_name (str) –

  • document_id (str) –

  • document (Document) –

Return type

None

update_documents(collection_name: str, ids: List[str], documents: List[Document]) None[source]

更新集合中的文档。

参数:

ids(List[str]):要更新的文档的id列表。 documents(List[Document]):要更新的文档列表。

Parameters
  • collection_name (str) –

  • ids (List[str]) –

  • documents (List[Document]) –

Return type

None

Examples using VDMS