langchain_community.vectorstores.upstash.UpstashVectorStore

class langchain_community.vectorstores.upstash.UpstashVectorStore(text_key: str = 'text', index: Optional[Index] = None, async_index: Optional[AsyncIndex] = None, index_url: Optional[str] = None, index_token: Optional[str] = None, embedding: Optional[Union[Embeddings, bool]] = None)[source]

Upstash Vector向量存储

要使用,必须安装``upstash-vector`` python包。

还需要一个Upstash Vector索引。首先创建一个新的Upstash Vector索引,复制`index_url`和`index_token`变量。然后通过构造函数传递它们,或者设置环境变量`UPSTASH_VECTOR_REST_URL`和`UPSTASH_VECTOR_REST_TOKEN`。

示例:
from langchain_openai import OpenAIEmbeddings
from langchain_community.vectorstores import UpstashVectorStore

embeddings = OpenAIEmbeddings(model="text-embedding-3-large")
vectorstore = UpstashVectorStore(
    embedding=embeddings,
    index_url="...",
    index_token="..."
)

# 或者

import os

os.environ["UPSTASH_VECTOR_REST_URL"] = "..."
os.environ["UPSTASH_VECTOR_REST_TOKEN"] = "..."

vectorstore = UpstashVectorStore(
    embedding=embeddings
)

UpstashVectorStore的构造函数。

如果未提供index或index_url和index_token,则构造函数将尝试使用环境变量`UPSTASH_VECTOR_REST_URL`和`UPSTASH_VECTOR_REST_TOKEN`来创建索引。

参数:

text_key:用于在元数据中存储文本的键。 index:UpstashVector索引对象。 async_index:UpstashVector AsyncIndex对象,仅在需要异步函数时提供。 index_url:UpstashVector索引的URL。 index_token:UpstashVector索引的令牌。 embedding:嵌入对象或布尔值。当为false时,不应用嵌入。如果为true,则使用Upstash嵌入。当使用Upstash嵌入时,文本将直接发送到Upstash,并在那里应用嵌入,而不是在Langchain中进行嵌入。

示例:
from langchain_community.vectorstores.upstash import UpstashVectorStore
from langchain_community.embeddings.openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
vectorstore = UpstashVectorStore(
    embedding=embeddings,
    index_url="...",
    index_token="..."
)

# 使用现有索引
from upstash_vector import Index

index = Index(url="...", token="...")
vectorstore = UpstashVectorStore(
    embedding=embeddings,
    index=index
)

Attributes

embeddings

如果可用,访问查询嵌入对象。

Methods

__init__([text_key, index, async_index, ...])

UpstashVectorStore的构造函数。

aadd_documents(documents[, ids, batch_size, ...])

为文档获取嵌入并将其添加到向量存储中。

aadd_texts(texts[, metadatas, ids, ...])

获取文本的嵌入并将其添加到向量存储中。

add_documents(documents[, ids, batch_size, ...])

为文档获取嵌入并将其添加到向量存储中。

add_texts(texts[, metadatas, ids, ...])

获取文本的嵌入并将其添加到向量存储中。

adelete([ids, delete_all, batch_size])

根据向量ID删除

afrom_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas, ...])

从文本列表创建一个新的UpstashVectorStore。

ainfo()

获取有关索引的统计信息。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

asimilarity_search(query[, k, filter])

返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k, ...])

返回与给定嵌入最接近的文档。

asimilarity_search_by_vector_with_score(...)

返回与给定嵌入最接近的文本

asimilarity_search_with_relevance_scores(query)

返回文档和相关性分数在范围[0, 1]内,异步执行。

asimilarity_search_with_score(query[, k, filter])

检索与查询最相似的文本,并将结果转换为`Document`对象。

delete([ids, delete_all, batch_size])

根据向量ID删除

from_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

from_texts(texts, embedding[, metadatas, ...])

从文本列表创建一个新的UpstashVectorStore。

info()

获取有关索引的统计信息。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

search(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

similarity_search(query[, k, filter])

返回与查询最相似的文档。

similarity_search_by_vector(embedding[, k, ...])

返回与给定嵌入最接近的文档。

similarity_search_by_vector_with_score(embedding)

返回与给定嵌入最接近的文本

similarity_search_with_relevance_scores(query)

返回文档和相关性得分在[0, 1]范围内。

similarity_search_with_score(query[, k, filter])

检索与查询最相似的文本,并将结果转换为`Document`对象。

Parameters
  • text_key (str) –

  • index (Optional[Index]) –

  • async_index (Optional[AsyncIndex]) –

  • index_url (Optional[str]) –

  • index_token (Optional[str]) –

  • embedding (Optional[Union[Embeddings, bool]]) –

__init__(text_key: str = 'text', index: Optional[Index] = None, async_index: Optional[AsyncIndex] = None, index_url: Optional[str] = None, index_token: Optional[str] = None, embedding: Optional[Union[Embeddings, bool]] = None)[source]

UpstashVectorStore的构造函数。

如果未提供index或index_url和index_token,则构造函数将尝试使用环境变量`UPSTASH_VECTOR_REST_URL`和`UPSTASH_VECTOR_REST_TOKEN`来创建索引。

参数:

text_key:用于在元数据中存储文本的键。 index:UpstashVector索引对象。 async_index:UpstashVector AsyncIndex对象,仅在需要异步函数时提供。 index_url:UpstashVector索引的URL。 index_token:UpstashVector索引的令牌。 embedding:嵌入对象或布尔值。当为false时,不应用嵌入。如果为true,则使用Upstash嵌入。当使用Upstash嵌入时,文本将直接发送到Upstash,并在那里应用嵌入,而不是在Langchain中进行嵌入。

示例:
from langchain_community.vectorstores.upstash import UpstashVectorStore
from langchain_community.embeddings.openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
vectorstore = UpstashVectorStore(
    embedding=embeddings,
    index_url="...",
    index_token="..."
)

# 使用现有索引
from upstash_vector import Index

index = Index(url="...", token="...")
vectorstore = UpstashVectorStore(
    embedding=embeddings,
    index=index
)
Parameters
  • text_key (str) –

  • index (Optional[Index]) –

  • async_index (Optional[AsyncIndex]) –

  • index_url (Optional[str]) –

  • index_token (Optional[str]) –

  • embedding (Optional[Union[Embeddings, bool]]) –

async aadd_documents(documents: Iterable[Document], ids: Optional[List[str]] = None, batch_size: int = 32, embedding_chunk_size: int = 1000, **kwargs: Any) List[str][source]

为文档获取嵌入并将其添加到向量存储中。

文档以大小为`embedding_chunk_size`的批次发送到嵌入对象。 然后以大小为`batch_size`的批次将嵌入数据插入到向量存储中。

参数:

documents: 要添加到向量存储中的文档的可迭代对象。 batch_size: 在插入嵌入数据时要使用的批处理大小。 Upstash支持每个请求最多1000个向量。 embedding_batch_size: 在嵌入文本时要使用的块大小。

返回:

将文本添加到向量存储中的ID列表。

Parameters
  • documents (Iterable[Document]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • embedding_chunk_size (int) –

  • kwargs (Any) –

Return type

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, batch_size: int = 32, embedding_chunk_size: int = 1000, **kwargs: Any) List[str][source]

获取文本的嵌入并将其添加到向量存储中。

文本以大小为`embedding_chunk_size`的批次发送到嵌入对象中。 然后以大小为`batch_size`的批次将嵌入数据更新到向量存储中。

参数:

texts: 要添加到向量存储中的字符串的可迭代对象。 metadatas: 与文本相关的元数据的可选列表。 ids: 与文本关联的可选id列表。 batch_size: 更新嵌入数据时要使用的批次大小。 Upstash支持每个请求最多1000个向量。 embedding_batch_size: 嵌入文本时要使用的块大小。

返回:

将文本添加到向量存储中的id列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • embedding_chunk_size (int) –

  • kwargs (Any) –

Return type

List[str]

add_documents(documents: List[Document], ids: Optional[List[str]] = None, batch_size: int = 32, embedding_chunk_size: int = 1000, **kwargs: Any) List[str][source]

为文档获取嵌入并将其添加到向量存储中。

文档以大小为`embedding_chunk_size`的批次发送到嵌入对象。 然后以大小为`batch_size`的批次将嵌入数据插入到向量存储中。

参数:

documents: 要添加到向量存储中的文档的可迭代对象。 batch_size: 在插入嵌入数据时要使用的批处理大小。 Upstash支持每个请求最多1000个向量。 embedding_batch_size: 在嵌入文本时要使用的块大小。

返回:

将文本添加到向量存储中的ID列表。

Parameters
  • documents (List[Document]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • embedding_chunk_size (int) –

  • kwargs (Any) –

Return type

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, batch_size: int = 32, embedding_chunk_size: int = 1000, **kwargs: Any) List[str][source]

获取文本的嵌入并将其添加到向量存储中。

文本以大小为`embedding_chunk_size`的批次发送到嵌入对象中。 然后以大小为`batch_size`的批次将嵌入数据更新到向量存储中。

参数:

texts: 要添加到向量存储中的字符串的可迭代对象。 metadatas: 与文本相关的元数据的可选列表。 ids: 与文本关联的可选id列表。 batch_size: 更新嵌入数据时要使用的批次大小。 Upstash支持每个请求最多1000个向量。 embedding_batch_size: 嵌入文本时要使用的块大小。

返回:

将文本添加到向量存储中的id列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • batch_size (int) –

  • embedding_chunk_size (int) –

  • kwargs (Any) –

Return type

List[str]

async adelete(ids: Optional[List[str]] = None, delete_all: Optional[bool] = None, batch_size: Optional[int] = 1000, **kwargs: Any) None[source]

根据向量ID删除

参数:

ids:要删除的ID列表。 delete_all:删除索引中的所有向量。 batch_size:删除嵌入时要使用的批量大小。 Upstash每个请求最多支持1000个删除。

Parameters
  • ids (Optional[List[str]]) –

  • delete_all (Optional[bool]) –

  • batch_size (Optional[int]) –

  • kwargs (Any) –

Return type

None

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, embedding_chunk_size: int = 1000, batch_size: int = 32, text_key: str = 'text', index: Optional[Index] = None, async_index: Optional[AsyncIndex] = None, index_url: Optional[str] = None, index_token: Optional[str] = None, **kwargs: Any) UpstashVectorStore[source]

从文本列表创建一个新的UpstashVectorStore。

示例:
Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • embedding_chunk_size (int) –

  • batch_size (int) –

  • text_key (str) –

  • index (Optional[Index]) –

  • async_index (Optional[AsyncIndex]) –

  • index_url (Optional[str]) –

  • index_token (Optional[str]) –

  • kwargs (Any) –

Return type

UpstashVectorStore

async ainfo() InfoResult[source]

获取有关索引的统计信息。

返回:
  • 向量的总数

  • 等待被索引的向量总数

  • 磁盘上索引的总大小(以字节为单位)

  • 索引的维度计数

  • 为索引选择的相似性函数

Return type

InfoResult

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。 filter:可选的元数据过滤器,以str格式。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: Union[List[float], str], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[str] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 查找与之相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 要获取的文档数量,以传递给MMR算法。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,0表示最大多样性,1表示最小多样性。默认为0.5。 filter: str格式的可选元数据过滤器

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • embedding (Union[List[float], str]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此VectorStore初始化的VectorStoreRetriever。

参数:
search_type(可选[str]):定义Retriever应执行的搜索类型。

可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。

search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:

k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选

返回:

VectorStoreRetriever:VectorStore的Retriever类。

示例:

# 检索更多具有更高多样性的文档
# 如果数据集中有许多相似的文档,则很有用
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# 为MMR算法考虑更多文档
# 但只返回前5个
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# 仅检索具有特定阈值以上相关性分数的文档
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# 仅从数据集中获取最相似的单个文档
docsearch.as_retriever(search_kwargs={'k': 1})

# 使用筛选器仅从特定论文中检索文档
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
Parameters

kwargs (Any) –

Return type

VectorStoreRetriever

async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询最相似的文档。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter:可选的元数据过滤器,以str格式表示。

返回:

返回与查询最相似的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector(embedding: Union[List[float], str], k: int = 4, filter: Optional[str] = None, **kwargs: Any) List[Document][source]

返回与给定嵌入最接近的文档。

参数:

embedding:要查找类似文档的嵌入。 k:要返回的文档数量。默认为4。 filter:可选的元数据过滤器,以str格式表示。

返回:

与查询最相似的文档列表。

Parameters
  • embedding (Union[List[float], str]) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector_with_score(embedding: Union[List[float], str], k: int = 4, filter: Optional[str] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回与给定嵌入最接近的文本

Parameters
  • embedding (Union[List[float], str]) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性分数在范围[0, 1]内,异步执行。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似度分数)的列表

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score(query: str, k: int = 4, filter: Optional[str] = None, **kwargs: Any) List[Tuple[Document, float]][source]

检索与查询最相似的文本,并将结果转换为`Document`对象。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter:可选的元数据过滤器,以str格式表示。

返回:

与查询最相似的文档列表,以及每个文档的得分。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

delete(ids: Optional[List[str]] = None, delete_all: Optional[bool] = None, batch_size: Optional[int] = 1000, **kwargs: Any) None[source]

根据向量ID删除

参数:

ids:要删除的ID列表。 delete_all:删除索引中的所有向量。 batch_size:删除嵌入时要使用的批量大小。 Upstash每个请求最多支持1000个删除。

Parameters
  • ids (Optional[List[str]]) –

  • delete_all (Optional[bool]) –

  • batch_size (Optional[int]) –

  • kwargs (Any) –

Return type

None

classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, embedding_chunk_size: int = 1000, batch_size: int = 32, text_key: str = 'text', index: Optional[Index] = None, async_index: Optional[AsyncIndex] = None, index_url: Optional[str] = None, index_token: Optional[str] = None, **kwargs: Any) UpstashVectorStore[source]

从文本列表创建一个新的UpstashVectorStore。

示例:
Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • embedding_chunk_size (int) –

  • batch_size (int) –

  • text_key (str) –

  • index (Optional[Index]) –

  • async_index (Optional[AsyncIndex]) –

  • index_url (Optional[str]) –

  • index_token (Optional[str]) –

  • kwargs (Any) –

Return type

UpstashVectorStore

info() InfoResult[source]

获取有关索引的统计信息。

返回:
  • 向量的总数

  • 等待被索引的向量总数

  • 磁盘上索引的总大小(以字节为单位)

  • 索引的维度计数

  • 为索引选择的相似性函数

Return type

InfoResult

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。 filter:可选的元数据过滤器,以str格式。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_by_vector(embedding: Union[List[float], str], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[str] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 查找与之相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 要获取的文档数量,以传递给MMR算法。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,0表示最大多样性,1表示最小多样性。默认为0.5。 filter: str格式的可选元数据过滤器

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • embedding (Union[List[float], str]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询最相似的文档。

参数:

query:要查找相似文档的文本。 k:要返回的文档数量。默认为4。 filter:可选的元数据过滤器,以字符串格式表示。

返回:

与查询最相似的文档列表,以及每个文档的分数。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector(embedding: Union[List[float], str], k: int = 4, filter: Optional[str] = None, **kwargs: Any) List[Document][source]

返回与给定嵌入最接近的文档。

参数:

embedding:要查找类似文档的嵌入。 k:要返回的文档数量。默认为4。 filter:可选的元数据过滤器,以str格式表示。

返回:

与查询最相似的文档列表。

Parameters
  • embedding (Union[List[float], str]) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector_with_score(embedding: Union[List[float], str], k: int = 4, filter: Optional[str] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回与给定嵌入最接近的文本

Parameters
  • embedding (Union[List[float], str]) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性得分在[0, 1]范围内。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似性得分)

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 4, filter: Optional[str] = None, **kwargs: Any) List[Tuple[Document, float]][source]

检索与查询最相似的文本,并将结果转换为`Document`对象。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter:可选的元数据过滤器,以str格式表示。

返回:

与查询最相似的文档列表,以及每个文档的得分。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[str]) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]