AstraDB#

class langchain_community.vectorstores.astradb.AstraDB(*, embedding: Embeddings, collection_name: str, token: str | None = None, api_endpoint: str | None = None, astra_db_client: LibAstraDB | None = None, async_astra_db_client: AsyncAstraDB | None = None, namespace: str | None = None, metric: str | None = None, batch_size: int | None = None, bulk_insert_batch_concurrency: int | None = None, bulk_insert_overwrite_concurrency: int | None = None, bulk_delete_concurrency: int | None = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False)[来源]#

自版本 0.0.21 起已弃用:请改用 :class:`~langchain_astradb.AstraDBVectorStore`。在 langchain-community==1.0 之前不会移除。

围绕DataStax Astra DB的包装器,用于向量存储工作负载。

有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra/astra-db-vector/

示例

from langchain_community.vectorstores import AstraDB
from langchain_openai.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
vectorstore = AstraDB(
    embedding=embeddings,
    collection_name="my_store",
    token="AstraCS:...",
    api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com"
)

vectorstore.add_texts(["Giraffes", "All good here"])
results = vectorstore.similarity_search("Everything's ok", k=1)
Parameters:
  • embedding (Embeddings) – 使用的嵌入函数。

  • collection_name (str) – 要创建/使用的Astra DB集合的名称。

  • token (可选[str]) – 用于Astra DB的API令牌。

  • api_endpoint (可选[str]) – API端点的完整URL,例如 https://-us-east1.apps.astra.datastax.com

  • astra_db_client (可选[LibAstraDB]) – 替代 token+api_endpoint, 你可以传递一个已经创建的 'astrapy.db.AstraDB' 实例。

  • async_astra_db_client (Optional[AsyncAstraDB]) – 替代token+api_endpoint, 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例。

  • namespace (可选[str]) – 创建集合的命名空间(也称为keyspace)。 默认为数据库的“默认命名空间”。

  • metric (Optional[str]) – 在Astra DB中可用的相似性函数。 如果未指定,将使用Astra DB API的默认值(即“cosine” - 但是, 出于性能原因,如果嵌入已归一化为1,则建议使用“dot_product”)。

  • batch_size (可选[int]) – 批量插入的批次大小。

  • bulk_insert_batch_concurrency (Optional[int]) – 并发插入批次的线程或协程数量。

  • bulk_insert_overwrite_concurrency (Optional[int]) – 批量插入或覆盖现有条目时的线程或协程数量。

  • bulk_delete_concurrency (Optional[int]) – 线程数(用于并发删除多行)。

  • pre_delete_collection (bool) – 是否在创建集合之前删除它。 如果为False且集合已存在,则将直接使用该集合。

  • setup_mode (SetupMode)

注意

对于同步add_texts()中的并发性,作为经验法则,在典型的客户端机器上,建议保持数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于1000,以避免耗尽客户端的多线程/网络资源。硬编码的默认值有些保守,以满足大多数机器的规格,但一个合理的测试选择可能是:

  • bulk_insert_batch_concurrency = 80

  • bulk_insert_overwrite_concurrency = 10

需要一些实验来确定最佳结果,这取决于机器/网络规格和预期的工作负载(特别是,写入操作是现有ID更新的频率)。记住,你可以将并发设置传递给对add_texts()add_documents()的单个调用。

属性

embeddings

如果可用,访问查询嵌入对象。

方法

__init__(*, embedding, collection_name[, ...])

用于向量存储工作负载的DataStax Astra DB封装器。

aadd_documents(documents, **kwargs)

异步运行更多文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas, ids, ...])

将文本通过嵌入模型处理并添加到向量存储中。

aclear()

清空集合中的所有存储条目。

add_documents(documents, **kwargs)

在向量存储中添加或更新文档。

add_texts(texts[, metadatas, ids, ...])

将文本通过嵌入模型处理并添加到向量存储中。

adelete([ids, concurrency])

通过向量ID删除。

adelete_by_document_id(document_id)

根据文档ID从存储中删除单个文档。

adelete_collection()

从数据库中完全删除集合(与aclear()不同,后者仅清空集合)。

afrom_documents(documents, embedding, **kwargs)

异步返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas, ids])

从原始文本创建Astra DB向量存储。

aget_by_ids(ids, /)

异步通过ID获取文档。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

异步返回与查询最相似的文档,使用指定的搜索类型。

asimilarity_search(query[, k, filter])

返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

异步返回文档和相关度分数,范围在[0, 1]之间。

asimilarity_search_with_score(query[, k, filter])

返回与查询最相似的文档及其分数。

asimilarity_search_with_score_by_vector(...)

返回与嵌入向量最相似的文档及其分数。

asimilarity_search_with_score_id(query[, k, ...])

返回与查询最相似的文档及其分数和ID。

asimilarity_search_with_score_id_by_vector(...)

返回与嵌入向量最相似的文档,包含分数和ID。

clear()

清空集合中的所有存储条目。

delete([ids, concurrency])

通过向量ID删除。

delete_by_document_id(document_id)

根据文档ID从存储中删除单个文档。

delete_collection()

完全从数据库中删除集合(与clear()相反,后者仅清空集合)。

from_documents(documents, embedding, **kwargs)

从文档列表创建Astra DB向量存储。

from_texts(texts, embedding[, metadatas, ids])

从原始文本创建Astra DB向量存储。

get_by_ids(ids, /)

通过ID获取文档。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

search(query, search_type, **kwargs)

使用指定的搜索类型返回与查询最相似的文档。

similarity_search(query[, k, filter])

返回与查询最相似的文档。

similarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和相关度分数,范围在[0, 1]之间。

similarity_search_with_score(query[, k, filter])

返回与查询最相似的文档及其分数。

similarity_search_with_score_by_vector(embedding)

返回与嵌入向量最相似的文档及其分数。

similarity_search_with_score_id(query[, k, ...])

返回与查询最相似的文档及其分数和ID。

similarity_search_with_score_id_by_vector(...)

返回与嵌入向量最相似的文档及其分数和ID。

__init__(*, embedding: Embeddings, collection_name: str, token: str | None = None, api_endpoint: str | None = None, astra_db_client: LibAstraDB | None = None, async_astra_db_client: AsyncAstraDB | None = None, namespace: str | None = None, metric: str | None = None, batch_size: int | None = None, bulk_insert_batch_concurrency: int | None = None, bulk_insert_overwrite_concurrency: int | None = None, bulk_delete_concurrency: int | None = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False) None[来源]#

围绕DataStax Astra DB的包装器,用于向量存储工作负载。

有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra/astra-db-vector/

示例

from langchain_community.vectorstores import AstraDB
from langchain_openai.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
vectorstore = AstraDB(
    embedding=embeddings,
    collection_name="my_store",
    token="AstraCS:...",
    api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com"
)

vectorstore.add_texts(["Giraffes", "All good here"])
results = vectorstore.similarity_search("Everything's ok", k=1)
Parameters:
  • embedding (Embeddings) – 使用的嵌入函数。

  • collection_name (str) – 要创建/使用的Astra DB集合的名称。

  • token (可选[str]) – 用于Astra DB的API令牌。

  • api_endpoint (可选[str]) – API端点的完整URL,例如 https://-us-east1.apps.astra.datastax.com

  • astra_db_client (可选[LibAstraDB]) – 替代 token+api_endpoint, 你可以传递一个已经创建的 'astrapy.db.AstraDB' 实例。

  • async_astra_db_client (Optional[AsyncAstraDB]) – 替代token+api_endpoint, 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例。

  • namespace (可选[str]) – 创建集合的命名空间(也称为keyspace)。 默认为数据库的“默认命名空间”。

  • metric (Optional[str]) – 在Astra DB中可用的相似性函数。 如果未指定,将使用Astra DB API的默认值(即“cosine” - 但是, 出于性能原因,如果嵌入已归一化为1,则建议使用“dot_product”)。

  • batch_size (可选[int]) – 批量插入的批次大小。

  • bulk_insert_batch_concurrency (Optional[int]) – 并发插入批次的线程或协程数量。

  • bulk_insert_overwrite_concurrency (Optional[int]) – 批量插入或覆盖现有条目时的线程或协程数量。

  • bulk_delete_concurrency (Optional[int]) – 线程数(用于并发删除多行)。

  • pre_delete_collection (bool) – 是否在创建集合之前删除它。 如果为False且集合已存在,则将直接使用该集合。

  • setup_mode (SetupMode)

Return type:

注意

对于同步add_texts()中的并发性,作为经验法则,在典型的客户端机器上,建议保持数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于1000,以避免耗尽客户端的多线程/网络资源。硬编码的默认值有些保守,以满足大多数机器的规格,但一个合理的测试选择可能是:

  • bulk_insert_batch_concurrency = 80

  • bulk_insert_overwrite_concurrency = 10

需要一些实验来确定最佳结果,这取决于机器/网络规格和预期的工作负载(特别是,写入操作是现有ID更新的频率)。记住,你可以将并发设置传递给对add_texts()add_documents()的单个调用。

async aadd_documents(documents: list[Document], **kwargs: Any) list[str]#

通过嵌入异步运行更多文档并将其添加到向量存储中。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档。

  • kwargs (Any) – 额外的关键字参数。

Returns:

已添加文本的ID列表。

Raises:

ValueError – 如果ID的数量与文档的数量不匹配。

Return type:

列表[字符串]

async aadd_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, *, batch_size: int | None = None, batch_concurrency: int | None = None, overwrite_concurrency: int | None = None, **kwargs: Any) List[str][source]#

通过嵌入运行文本并将它们添加到向量存储中。

如果传递显式id,那些id已经在存储中的条目将被替换。

Parameters:
  • texts (Iterable[str]) – 要添加到向量存储中的文本。

  • metadatas (List[dict] | None) – 可选的元数据列表。

  • ids (List[str] | None) – 可选的ID列表。

  • batch_size (int | None) – 每次API调用中的文档数量。 请检查底层Astra DB HTTP API规范以获取最大值 (在撰写本文时为20)。如果未提供,则默认为实例级别的设置。

  • batch_concurrency (int | None) – 并发处理插入批次的线程数。如果未提供,则默认为实例级别的设置。

  • overwrite_concurrency (int | None) – 用于处理每个批次中预先存在的文档的线程数(这些文档需要单独的API调用)。如果未提供,则默认为实例级别的设置。

  • kwargs (Any)

Return type:

列表[str]

注意

元数据字典中的允许字段名称有一些限制,这些限制来自于底层的Astra DB API。例如,$(美元符号)不能在字典键中使用。详情请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html

Returns:

添加文本的ID列表。

Parameters:
  • texts (可迭代对象[字符串])

  • metadatas (列表[字典] | )

  • ids (列表[字符串] | )

  • batch_size (int | None)

  • batch_concurrency (int | None)

  • overwrite_concurrency (int | None)

  • kwargs (Any)

Return type:

列表[str]

async aclear() None[来源]#

清空集合中所有存储的条目。

Return type:

add_documents(documents: list[Document], **kwargs: Any) list[str]#

在向量存储中添加或更新文档。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档。

  • kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。

Returns:

已添加文本的ID列表。

Raises:

ValueError – 如果id的数量与文档的数量不匹配。

Return type:

列表[字符串]

add_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, *, batch_size: int | None = None, batch_concurrency: int | None = None, overwrite_concurrency: int | None = None, **kwargs: Any) List[str][来源]#

通过嵌入运行文本并将它们添加到向量存储中。

如果传递显式id,那些id已经在存储中的条目将被替换。

Parameters:
  • texts (Iterable[str]) – 要添加到向量存储中的文本。

  • metadatas (List[dict] | None) – 可选的元数据列表。

  • ids (List[str] | None) – 可选的ID列表。

  • batch_size (int | None) – 每次API调用中的文档数量。 请检查底层Astra DB HTTP API规范以获取最大值 (在撰写本文时为20)。如果未提供,则默认为实例级别的设置。

  • batch_concurrency (int | None) – 并发处理插入批次的线程数。如果未提供,则默认为实例级别的设置。

  • overwrite_concurrency (int | None) – 每个批次中处理已有文档的线程数(这些文档需要单独的API调用)。如果未提供,则默认为实例级别的设置。

  • kwargs (Any)

Return type:

列表[str]

注意

元数据字典中的允许字段名称有一些限制,这些限制来自于底层的Astra DB API。例如,$(美元符号)不能在字典键中使用。详情请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html

Returns:

添加文本的ID列表。

Parameters:
  • texts (可迭代对象[字符串])

  • metadatas (列表[字典] | )

  • ids (列表[字符串] | )

  • batch_size (int | None)

  • batch_concurrency (int | None)

  • overwrite_concurrency (int | None)

  • kwargs (Any)

Return type:

列表[str]

async adelete(ids: List[str] | None = None, concurrency: int | None = None, **kwargs: Any) bool | None[来源]#

通过向量ID删除。

Parameters:
  • ids (List[str] | None) – 要删除的ID列表。

  • concurrency (int | None) – 单文档删除请求的最大并发数。默认为实例级别的设置。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

Returns:

如果删除成功则为True,否则为False。

Return type:

布尔值 | 无

async adelete_by_document_id(document_id: str) bool[source]#

根据文档ID从存储中删除单个文档。

Parameters:

document_id (str) – 文档ID

Return type:

布尔

Returns

如果文档确实已被删除则为True,如果未找到ID则为False。

async adelete_collection() None[source]#

从数据库中完全删除集合(与aclear()不同,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。

Return type:

async classmethod afrom_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST#

异步返回从文档和嵌入初始化的VectorStore。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档列表。

  • embedding (Embeddings) – 使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

Returns:

从文档和嵌入初始化的VectorStore。

Return type:

VectorStore

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) ADBVST[source]#

从原始文本创建Astra DB向量存储。

Parameters:
  • texts (List[str]) – 要插入的文本。

  • embedding (Embeddings) – 在存储中使用的嵌入函数。

  • metadatas (List[dict] | None) – 文本的元数据字典。

  • ids (List[str] | None) – 与文本关联的ID。

  • **kwargs (Any) – 你可以传递任何你想要的参数到 add_texts() 和/或到 ‘AstraDB’ 构造函数 (详情请参见这些方法)。这些参数将按原样传递给相应的方法。

Returns:

一个 AstraDb 向量存储。

Return type:

ADBVST

async aget_by_ids(ids: Sequence[str], /) list[Document]#

通过ID异步获取文档。

返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。

如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。

用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。

如果没有找到某些ID的文档,此方法不应引发异常。

Parameters:

ids (Sequence[str]) – 要检索的ID列表。

Returns:

文档列表。

Return type:

列表[Document]

在版本0.2.11中添加。

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。

  • fetch_k (int) – 要获取并传递给MMR算法的文档数量。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[文档]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document][source]#

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。

  • fetch_k (int) – 要获取并传递给MMR算法的文档数量。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[文档]

as_retriever(**kwargs: Any) VectorStoreRetriever#

返回从此VectorStore初始化的VectorStoreRetriever。

Parameters:

**kwargs (Any) –

传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。

检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。

search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
可以包括以下内容:

k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值

用于similarity_score_threshold

fetch_k: 传递给MMR算法的文档数量

(默认:20)

lambda_mult: MMR返回结果的多样性;

1表示最小多样性,0表示最大多样性。(默认:0.5)

filter: 按文档元数据过滤

Returns:

VectorStore的检索器类。

Return type:

VectorStoreRetriever

示例:

# Retrieve more documents with higher diversity
# Useful if your dataset has many similar documents
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# Fetch more documents for the MMR algorithm to consider
# But only return the top 5
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# Only retrieve documents that have a relevance score
# Above a certain threshold
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# Only get the single most similar document from the dataset
docsearch.as_retriever(search_kwargs={'k': 1})

# Use a filter to only retrieve documents from a specific paper
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
async asearch(query: str, search_type: str, **kwargs: Any) list[Document]#

异步返回与查询最相似的文档,使用指定的搜索类型。

Parameters:
  • query (str) – 输入文本。

  • search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询最相似的文档列表。

Raises:

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

Return type:

列表[Document]

返回与查询最相似的文档。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

与查询最相似的文档列表。

Return type:

列表[文档]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document][source]#

返回与嵌入向量最相似的文档。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

与查询向量最相似的文档列表。

Return type:

列表[文档]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]]#

异步返回文档和相关度分数,范围在[0, 1]之间。

0 表示不相似,1 表示最相似。

Parameters:
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) –

    传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值

    过滤检索到的文档集

Returns:

(文档,相似度分数)的元组列表

Return type:

列表[元组[Document, 浮点数]]

async asimilarity_search_with_score(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]][source]#

返回与查询最相似的文档及其得分。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询向量最相似的(文档,分数)列表。

Return type:

列表[元组[文档, 浮点数]]

async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]][来源]#

返回与嵌入向量最相似的文档及其得分。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询向量最相似的(文档,分数)列表。

Return type:

列表[元组[文档, 浮点数]]

async asimilarity_search_with_score_id(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]][来源]#

返回与查询最相似的文档,包括分数和ID。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询最相似的(文档,分数,id)列表。

Return type:

列表[元组[文档, 浮点数, 字符串]]

async asimilarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]][来源]#

返回与嵌入向量最相似的文档,包括分数和ID。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询向量最相似的(文档、分数、ID)列表。

Return type:

列表[元组[文档, 浮点数, 字符串]]

clear() None[source]#

清空集合中所有存储的条目。

Return type:

delete(ids: List[str] | None = None, concurrency: int | None = None, **kwargs: Any) bool | None[source]#

通过向量ID删除。

Parameters:
  • ids (List[str] | None) – 要删除的ID列表。

  • concurrency (int | None) – 发出单文档删除请求的最大线程数。默认为实例级别设置。

  • kwargs (Any)

Returns:

如果删除成功则为True,否则为False。

Return type:

布尔值 | 无

delete_by_document_id(document_id: str) bool[来源]#

根据文档ID从存储中删除单个文档。

Parameters:

document_id (str) – 文档ID

Return type:

布尔

Returns

如果文档确实已被删除则为True,如果未找到ID则为False。

delete_collection() None[来源]#

从数据库中完全删除集合(与clear()不同,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。

Return type:

classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) ADBVST[来源]#

从文档列表创建一个Astra DB向量存储。

实用方法,推迟到‘from_texts’(参见该方法)。

Args: see ‘from_texts’, except here you have to supply ‘documents’

代替‘texts’和‘metadatas’。

Returns:

一个 AstraDB 向量存储。

Parameters:
Return type:

ADBVST

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) ADBVST[source]#

从原始文本创建Astra DB向量存储。

Parameters:
  • texts (List[str]) – 要插入的文本。

  • embedding (Embeddings) – 在存储中使用的嵌入函数。

  • metadatas (List[dict] | None) – 文本的元数据字典。

  • ids (List[str] | None) – 与文本关联的ID。

  • **kwargs (Any) – 你可以传递任何你想要的参数到 add_texts() 和/或到 ‘AstraDB’ 构造函数 (详情请参见这些方法)。这些参数将按原样传递给相应的方法。

Returns:

一个 AstraDb 向量存储。

Return type:

ADBVST

get_by_ids(ids: Sequence[str], /) list[Document]#

通过ID获取文档。

返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。

如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。

用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。

如果没有找到某些ID的文档,此方法不应引发异常。

Parameters:

ids (Sequence[str]) – 要检索的ID列表。

Returns:

文档列表。

Return type:

列表[Document]

在版本0.2.11中添加。

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。

  • fetch_k (int) – 要获取并传递给MMR算法的文档数量。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[文档]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document][source]#

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。

  • fetch_k (int) – 要获取并传递给MMR算法的文档数量。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[文档]

search(query: str, search_type: str, **kwargs: Any) list[Document]#

使用指定的搜索类型返回与查询最相似的文档。

Parameters:
  • query (str) – 输入文本

  • search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询最相似的文档列表。

Raises:

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

Return type:

列表[Document]

返回与查询最相似的文档。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

与查询最相似的文档列表。

Return type:

列表[文档]

similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document][source]#

返回与嵌入向量最相似的文档。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

  • kwargs (Any)

Returns:

与查询向量最相似的文档列表。

Return type:

列表[文档]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]]#

返回文档和相关度分数,范围在[0, 1]之间。

0 表示不相似,1 表示最相似。

Parameters:
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) –

    传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值

    用于过滤检索到的文档集。

Returns:

(文档, 相似度分数) 的元组列表。

Return type:

列表[元组[Document, 浮点数]]

similarity_search_with_score(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]][source]#

返回与查询最相似的文档及其得分。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询向量最相似的(文档,分数)列表。

Return type:

列表[元组[文档, 浮点数]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]][来源]#

返回与嵌入向量最相似的文档及其得分。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询向量最相似的(文档,分数)列表。

Return type:

列表[元组[文档, 浮点数]]

similarity_search_with_score_id(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]][source]#

返回与查询最相似的文档,包括分数和ID。

Parameters:
  • query (str) – 用于查找相似文档的查询。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询最相似的(文档,分数,id)列表。

Return type:

列表[元组[文档, 浮点数, 字符串]]

similarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]][source]#

返回与嵌入向量最相似的文档,包括分数和ID。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • filter (Dict[str, Any] | None) – 应用于元数据的过滤器。

Returns:

与查询向量最相似的(文档、分数、ID)列表。

Return type:

列表[元组[文档, 浮点数, 字符串]]

使用AstraDB的示例