AstraDB#
- class langchain_community.vectorstores.astradb.AstraDB(*, embedding: Embeddings, collection_name: str, token: str | None = None, api_endpoint: str | None = None, astra_db_client: LibAstraDB | None = None, async_astra_db_client: AsyncAstraDB | None = None, namespace: str | None = None, metric: str | None = None, batch_size: int | None = None, bulk_insert_batch_concurrency: int | None = None, bulk_insert_overwrite_concurrency: int | None = None, bulk_delete_concurrency: int | None = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False)[来源]#
自版本 0.0.21 起已弃用:请改用
:class:`~langchain_astradb.AstraDBVectorStore`
。在 langchain-community==1.0 之前不会移除。围绕DataStax Astra DB的包装器,用于向量存储工作负载。
有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra/astra-db-vector/
示例
from langchain_community.vectorstores import AstraDB from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() vectorstore = AstraDB( embedding=embeddings, collection_name="my_store", token="AstraCS:...", api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com" ) vectorstore.add_texts(["Giraffes", "All good here"]) results = vectorstore.similarity_search("Everything's ok", k=1)
- Parameters:
embedding (Embeddings) – 使用的嵌入函数。
collection_name (str) – 要创建/使用的Astra DB集合的名称。
token (可选[str]) – 用于Astra DB的API令牌。
api_endpoint (可选[str]) – API端点的完整URL,例如 https://
-us-east1.apps.astra.datastax.com 。astra_db_client (可选[LibAstraDB]) – 替代 token+api_endpoint, 你可以传递一个已经创建的 'astrapy.db.AstraDB' 实例。
async_astra_db_client (Optional[AsyncAstraDB]) – 替代token+api_endpoint, 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例。
namespace (可选[str]) – 创建集合的命名空间(也称为keyspace)。 默认为数据库的“默认命名空间”。
metric (Optional[str]) – 在Astra DB中可用的相似性函数。 如果未指定,将使用Astra DB API的默认值(即“cosine” - 但是, 出于性能原因,如果嵌入已归一化为1,则建议使用“dot_product”)。
batch_size (可选[int]) – 批量插入的批次大小。
bulk_insert_batch_concurrency (Optional[int]) – 并发插入批次的线程或协程数量。
bulk_insert_overwrite_concurrency (Optional[int]) – 批量插入或覆盖现有条目时的线程或协程数量。
bulk_delete_concurrency (Optional[int]) – 线程数(用于并发删除多行)。
pre_delete_collection (bool) – 是否在创建集合之前删除它。 如果为False且集合已存在,则将直接使用该集合。
setup_mode (SetupMode)
注意
对于同步
add_texts()
中的并发性,作为经验法则,在典型的客户端机器上,建议保持数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于1000,以避免耗尽客户端的多线程/网络资源。硬编码的默认值有些保守,以满足大多数机器的规格,但一个合理的测试选择可能是:bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
需要一些实验来确定最佳结果,这取决于机器/网络规格和预期的工作负载(特别是,写入操作是现有ID更新的频率)。记住,你可以将并发设置传递给对
add_texts()
和add_documents()
的单个调用。属性
embeddings
如果可用,访问查询嵌入对象。
方法
__init__
(*, embedding, collection_name[, ...])用于向量存储工作负载的DataStax Astra DB封装器。
aadd_documents
(documents, **kwargs)异步运行更多文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas, ids, ...])将文本通过嵌入模型处理并添加到向量存储中。
aclear
()清空集合中的所有存储条目。
add_documents
(documents, **kwargs)在向量存储中添加或更新文档。
add_texts
(texts[, metadatas, ids, ...])将文本通过嵌入模型处理并添加到向量存储中。
adelete
([ids, concurrency])通过向量ID删除。
adelete_by_document_id
(document_id)根据文档ID从存储中删除单个文档。
从数据库中完全删除集合(与
aclear()
不同,后者仅清空集合)。afrom_documents
(documents, embedding, **kwargs)异步返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas, ids])从原始文本创建Astra DB向量存储。
aget_by_ids
(ids, /)异步通过ID获取文档。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步返回与查询最相似的文档,使用指定的搜索类型。
asimilarity_search
(query[, k, filter])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
异步返回文档和相关度分数,范围在[0, 1]之间。
asimilarity_search_with_score
(query[, k, filter])返回与查询最相似的文档及其分数。
返回与嵌入向量最相似的文档及其分数。
asimilarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档及其分数和ID。
返回与嵌入向量最相似的文档,包含分数和ID。
clear
()清空集合中的所有存储条目。
delete
([ids, concurrency])通过向量ID删除。
delete_by_document_id
(document_id)根据文档ID从存储中删除单个文档。
完全从数据库中删除集合(与
clear()
相反,后者仅清空集合)。from_documents
(documents, embedding, **kwargs)从文档列表创建Astra DB向量存储。
from_texts
(texts, embedding[, metadatas, ids])从原始文本创建Astra DB向量存储。
get_by_ids
(ids, /)通过ID获取文档。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
search
(query, search_type, **kwargs)使用指定的搜索类型返回与查询最相似的文档。
similarity_search
(query[, k, filter])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关度分数,范围在[0, 1]之间。
similarity_search_with_score
(query[, k, filter])返回与查询最相似的文档及其分数。
similarity_search_with_score_by_vector
(embedding)返回与嵌入向量最相似的文档及其分数。
similarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档及其分数和ID。
返回与嵌入向量最相似的文档及其分数和ID。
- __init__(*, embedding: Embeddings, collection_name: str, token: str | None = None, api_endpoint: str | None = None, astra_db_client: LibAstraDB | None = None, async_astra_db_client: AsyncAstraDB | None = None, namespace: str | None = None, metric: str | None = None, batch_size: int | None = None, bulk_insert_batch_concurrency: int | None = None, bulk_insert_overwrite_concurrency: int | None = None, bulk_delete_concurrency: int | None = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False) None [来源]#
围绕DataStax Astra DB的包装器,用于向量存储工作负载。
有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra/astra-db-vector/
示例
from langchain_community.vectorstores import AstraDB from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() vectorstore = AstraDB( embedding=embeddings, collection_name="my_store", token="AstraCS:...", api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com" ) vectorstore.add_texts(["Giraffes", "All good here"]) results = vectorstore.similarity_search("Everything's ok", k=1)
- Parameters:
embedding (Embeddings) – 使用的嵌入函数。
collection_name (str) – 要创建/使用的Astra DB集合的名称。
token (可选[str]) – 用于Astra DB的API令牌。
api_endpoint (可选[str]) – API端点的完整URL,例如 https://
-us-east1.apps.astra.datastax.com 。astra_db_client (可选[LibAstraDB]) – 替代 token+api_endpoint, 你可以传递一个已经创建的 'astrapy.db.AstraDB' 实例。
async_astra_db_client (Optional[AsyncAstraDB]) – 替代token+api_endpoint, 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例。
namespace (可选[str]) – 创建集合的命名空间(也称为keyspace)。 默认为数据库的“默认命名空间”。
metric (Optional[str]) – 在Astra DB中可用的相似性函数。 如果未指定,将使用Astra DB API的默认值(即“cosine” - 但是, 出于性能原因,如果嵌入已归一化为1,则建议使用“dot_product”)。
batch_size (可选[int]) – 批量插入的批次大小。
bulk_insert_batch_concurrency (Optional[int]) – 并发插入批次的线程或协程数量。
bulk_insert_overwrite_concurrency (Optional[int]) – 批量插入或覆盖现有条目时的线程或协程数量。
bulk_delete_concurrency (Optional[int]) – 线程数(用于并发删除多行)。
pre_delete_collection (bool) – 是否在创建集合之前删除它。 如果为False且集合已存在,则将直接使用该集合。
setup_mode (SetupMode)
- Return type:
无
注意
对于同步
add_texts()
中的并发性,作为经验法则,在典型的客户端机器上,建议保持数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于1000,以避免耗尽客户端的多线程/网络资源。硬编码的默认值有些保守,以满足大多数机器的规格,但一个合理的测试选择可能是:bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
需要一些实验来确定最佳结果,这取决于机器/网络规格和预期的工作负载(特别是,写入操作是现有ID更新的频率)。记住,你可以将并发设置传递给对
add_texts()
和add_documents()
的单个调用。
- async aadd_documents(documents: list[Document], **kwargs: Any) list[str] #
通过嵌入异步运行更多文档并将其添加到向量存储中。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果ID的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- async aadd_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, *, batch_size: int | None = None, batch_concurrency: int | None = None, overwrite_concurrency: int | None = None, **kwargs: Any) List[str] [source]#
通过嵌入运行文本并将它们添加到向量存储中。
如果传递显式id,那些id已经在存储中的条目将被替换。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的文本。
metadatas (List[dict] | None) – 可选的元数据列表。
ids (List[str] | None) – 可选的ID列表。
batch_size (int | None) – 每次API调用中的文档数量。 请检查底层Astra DB HTTP API规范以获取最大值 (在撰写本文时为20)。如果未提供,则默认为实例级别的设置。
batch_concurrency (int | None) – 并发处理插入批次的线程数。如果未提供,则默认为实例级别的设置。
overwrite_concurrency (int | None) – 用于处理每个批次中预先存在的文档的线程数(这些文档需要单独的API调用)。如果未提供,则默认为实例级别的设置。
kwargs (Any)
- Return type:
列表[str]
注意
元数据字典中的允许字段名称有一些限制,这些限制来自于底层的Astra DB API。例如,$(美元符号)不能在字典键中使用。详情请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html
- Returns:
添加文本的ID列表。
- Parameters:
texts (可迭代对象[字符串])
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
batch_size (int | None)
batch_concurrency (int | None)
overwrite_concurrency (int | None)
kwargs (Any)
- Return type:
列表[str]
- add_documents(documents: list[Document], **kwargs: Any) list[str] #
在向量存储中添加或更新文档。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果id的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- add_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, *, batch_size: int | None = None, batch_concurrency: int | None = None, overwrite_concurrency: int | None = None, **kwargs: Any) List[str] [来源]#
通过嵌入运行文本并将它们添加到向量存储中。
如果传递显式id,那些id已经在存储中的条目将被替换。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的文本。
metadatas (List[dict] | None) – 可选的元数据列表。
ids (List[str] | None) – 可选的ID列表。
batch_size (int | None) – 每次API调用中的文档数量。 请检查底层Astra DB HTTP API规范以获取最大值 (在撰写本文时为20)。如果未提供,则默认为实例级别的设置。
batch_concurrency (int | None) – 并发处理插入批次的线程数。如果未提供,则默认为实例级别的设置。
overwrite_concurrency (int | None) – 每个批次中处理已有文档的线程数(这些文档需要单独的API调用)。如果未提供,则默认为实例级别的设置。
kwargs (Any)
- Return type:
列表[str]
注意
元数据字典中的允许字段名称有一些限制,这些限制来自于底层的Astra DB API。例如,$(美元符号)不能在字典键中使用。详情请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html
- Returns:
添加文本的ID列表。
- Parameters:
texts (可迭代对象[字符串])
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
batch_size (int | None)
batch_concurrency (int | None)
overwrite_concurrency (int | None)
kwargs (Any)
- Return type:
列表[str]
- async adelete(ids: List[str] | None = None, concurrency: int | None = None, **kwargs: Any) bool | None [来源]#
通过向量ID删除。
- Parameters:
ids (List[str] | None) – 要删除的ID列表。
concurrency (int | None) – 单文档删除请求的最大并发数。默认为实例级别的设置。
**kwargs (Any) – 子类可能使用的其他关键字参数。
- Returns:
如果删除成功则为True,否则为False。
- Return type:
布尔值 | 无
- async adelete_by_document_id(document_id: str) bool [source]#
根据文档ID从存储中删除单个文档。
- Parameters:
document_id (str) – 文档ID
- Return type:
布尔
- Returns
如果文档确实已被删除则为True,如果未找到ID则为False。
- async adelete_collection() None [source]#
从数据库中完全删除集合(与
aclear()
不同,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。- Return type:
无
- async classmethod afrom_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST #
异步返回从文档和嵌入初始化的VectorStore。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档列表。
embedding (Embeddings) – 使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- Returns:
从文档和嵌入初始化的VectorStore。
- Return type:
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) ADBVST [source]#
从原始文本创建Astra DB向量存储。
- Parameters:
texts (List[str]) – 要插入的文本。
embedding (Embeddings) – 在存储中使用的嵌入函数。
metadatas (List[dict] | None) – 文本的元数据字典。
ids (List[str] | None) – 与文本关联的ID。
**kwargs (Any) – 你可以传递任何你想要的参数到
add_texts()
和/或到 ‘AstraDB’ 构造函数 (详情请参见这些方法)。这些参数将按原样传递给相应的方法。
- Returns:
一个 AstraDb 向量存储。
- Return type:
ADBVST
- async aget_by_ids(ids: Sequence[str], /) list[Document] #
通过ID异步获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [来源]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- as_retriever(**kwargs: Any) VectorStoreRetriever #
返回从此VectorStore初始化的VectorStoreRetriever。
- Parameters:
**kwargs (Any) –
传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
- search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
- 可以包括以下内容:
k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值
用于similarity_score_threshold
- fetch_k: 传递给MMR算法的文档数量
(默认:20)
- lambda_mult: MMR返回结果的多样性;
1表示最小多样性,0表示最大多样性。(默认:0.5)
filter: 按文档元数据过滤
- Returns:
VectorStore的检索器类。
- Return type:
示例:
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) list[Document] #
异步返回与查询最相似的文档,使用指定的搜索类型。
- Parameters:
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- async asimilarity_search(query: str, k: int = 4, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
与查询最相似的文档列表。
- Return type:
列表[文档]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[文档]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
异步返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
(文档,相似度分数)的元组列表
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]] [source]#
返回与查询最相似的文档及其得分。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[文档, 浮点数]]
- async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]] [来源]#
返回与嵌入向量最相似的文档及其得分。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[文档, 浮点数]]
- async asimilarity_search_with_score_id(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]] [来源]#
返回与查询最相似的文档,包括分数和ID。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询最相似的(文档,分数,id)列表。
- Return type:
列表[元组[文档, 浮点数, 字符串]]
- async asimilarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]] [来源]#
返回与嵌入向量最相似的文档,包括分数和ID。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档、分数、ID)列表。
- Return type:
列表[元组[文档, 浮点数, 字符串]]
- delete(ids: List[str] | None = None, concurrency: int | None = None, **kwargs: Any) bool | None [source]#
通过向量ID删除。
- Parameters:
ids (List[str] | None) – 要删除的ID列表。
concurrency (int | None) – 发出单文档删除请求的最大线程数。默认为实例级别设置。
kwargs (Any)
- Returns:
如果删除成功则为True,否则为False。
- Return type:
布尔值 | 无
- delete_by_document_id(document_id: str) bool [来源]#
根据文档ID从存储中删除单个文档。
- Parameters:
document_id (str) – 文档ID
- Return type:
布尔
- Returns
如果文档确实已被删除则为True,如果未找到ID则为False。
- delete_collection() None [来源]#
从数据库中完全删除集合(与
clear()
不同,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。- Return type:
无
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) ADBVST [来源]#
从文档列表创建一个Astra DB向量存储。
实用方法,推迟到‘from_texts’(参见该方法)。
- Args: see ‘from_texts’, except here you have to supply ‘documents’
代替‘texts’和‘metadatas’。
- Returns:
一个 AstraDB 向量存储。
- Parameters:
文档 (列表[Document])
embedding (Embeddings)
kwargs (Any)
- Return type:
ADBVST
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) ADBVST [source]#
从原始文本创建Astra DB向量存储。
- Parameters:
texts (List[str]) – 要插入的文本。
embedding (Embeddings) – 在存储中使用的嵌入函数。
metadatas (List[dict] | None) – 文本的元数据字典。
ids (List[str] | None) – 与文本关联的ID。
**kwargs (Any) – 你可以传递任何你想要的参数到
add_texts()
和/或到 ‘AstraDB’ 构造函数 (详情请参见这些方法)。这些参数将按原样传递给相应的方法。
- Returns:
一个 AstraDb 向量存储。
- Return type:
ADBVST
- get_by_ids(ids: Sequence[str], /) list[Document] #
通过ID获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- search(query: str, search_type: str, **kwargs: Any) list[Document] #
使用指定的搜索类型返回与查询最相似的文档。
- Parameters:
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- similarity_search(query: str, k: int = 4, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
与查询最相似的文档列表。
- Return type:
列表[文档]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
kwargs (Any)
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[文档]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
用于过滤检索到的文档集。
- Returns:
(文档, 相似度分数) 的元组列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]] [source]#
返回与查询最相似的文档及其得分。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[文档, 浮点数]]
- similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float]] [来源]#
返回与嵌入向量最相似的文档及其得分。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[文档, 浮点数]]
- similarity_search_with_score_id(query: str, k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]] [source]#
返回与查询最相似的文档,包括分数和ID。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询最相似的(文档,分数,id)列表。
- Return type:
列表[元组[文档, 浮点数, 字符串]]
- similarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None) List[Tuple[Document, float, str]] [source]#
返回与嵌入向量最相似的文档,包括分数和ID。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (Dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档、分数、ID)列表。
- Return type:
列表[元组[文档, 浮点数, 字符串]]
使用AstraDB的示例