langchain_community.vectorstores.astradb
.AstraDB¶
- class langchain_community.vectorstores.astradb.AstraDB(*, embedding: Embeddings, collection_name: str, token: Optional[str] = None, api_endpoint: Optional[str] = None, astra_db_client: Optional[LibAstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, metric: Optional[str] = None, batch_size: Optional[int] = None, bulk_insert_batch_concurrency: Optional[int] = None, bulk_insert_overwrite_concurrency: Optional[int] = None, bulk_delete_concurrency: Optional[int] = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False)[source]¶
[Deprecated]
Notes
Deprecated since version 0.0.21.
封装了用于向量存储工作负载的 DataStax Astra DB。
要快速开始并了解详情,请访问 https://docs.datastax.com/en/astra/astra-db-vector/
- 示例:
from langchain_community.vectorstores import AstraDB from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() vectorstore = AstraDB( embedding=embeddings, collection_name="my_store", token="AstraCS:...", api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com" ) vectorstore.add_texts(["Giraffes", "All good here"]) results = vectorstore.similarity_search("Everything's ok", k=1)
- 参数:
embedding: 要使用的嵌入函数。 collection_name: 要创建/使用的 Astra DB 集合的名称。 token: 用于 Astra DB 使用的 API 令牌。 api_endpoint: API 端点的完整 URL,例如
https://<DB-ID>-us-east1.apps.astra.datastax.com。
- astra_db_client: token+api_endpoint 的替代方案,
您可以传递一个已创建的 ‘astrapy.db.AstraDB’ 实例。
- async_astra_db_client: token+api_endpoint 的替代方案,
您可以传递一个已创建的 ‘astrapy.db.AsyncAstraDB’ 实例。
- namespace: 创建集合的命名空间(又名 keyspace)。
默认为数据库的 “default namespace”。
- metric: 要在 Astra DB 中使用的相似性函数之一。
如果省略,将使用 Astra DB API 的默认值(即 “cosine” - 但是, 出于性能原因,如果嵌入已归一化为一,建议使用 “dot_product”)。
batch_size: 用于批量插入的批量大小。 bulk_insert_batch_concurrency: 并发插入批次的线程数或协程数。 bulk_insert_overwrite_concurrency: 在批次中插入已存在条目的线程数或协程数。 bulk_delete_concurrency: 并发删除多行的线程数。 pre_delete_collection: 是否在创建集合之前删除集合。
如果为 False 并且集合已存在,则将使用该集合。
- 注意:
对于同步
add_texts()
中的并发性,根据经验,在典型客户端机器上, 建议将数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 保持远低于 1000,以避免耗尽客户端的多线程/网络资源。 预设的默认值相对保守,以满足大多数机器的规格,但一个明智的选择可能是:bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
需要进行一些实验来找到最佳结果, 这取决于机器/网络规格以及预期工作负载(特别是写入是现有 id 的更新的频率)。 请记住,您也可以将并发设置传递给
add_texts()
和add_documents()
的各个调用。
Attributes
embeddings
如果可用,访问查询嵌入对象。
Methods
__init__
(*, embedding, collection_name[, ...])封装了用于向量存储工作负载的 DataStax Astra DB。
aadd_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas, ids, ...])通过嵌入将文本传递并将其添加到向量存储中。
aclear
()清空集合中存储的所有条目。
add_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
add_texts
(texts[, metadatas, ids, ...])通过嵌入将文本传递并将其添加到向量存储中。
adelete
([ids, concurrency])根据向量ID删除。
adelete_by_document_id
(document_id)从存储中删除单个文档,给定其文档ID。
完全从数据库中删除集合(与:meth:`~aclear`相反,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。
afrom_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas, ids])从原始文本创建一个Astra DB向量存储。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
asimilarity_search
(query[, k, filter])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关性分数在范围[0, 1]内,异步执行。
asimilarity_search_with_score
(query[, k, filter])返回与查询最相似的文档及其分数。
返回与嵌入向量最相似的文档及其分数。
asimilarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档,包括分数和ID。
返回与嵌入向量最相似的文档,包括分数和ID。
clear
()清空集合中存储的所有条目。
delete
([ids, concurrency])根据向量ID删除。
delete_by_document_id
(document_id)从存储中删除单个文档,给定其文档ID。
完全从数据库中删除集合(与:meth:`~clear`相反,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。
from_documents
(documents, embedding, **kwargs)从文档列表创建一个Astra DB向量存储。
from_texts
(texts, embedding[, metadatas, ids])从原始文本创建一个Astra DB向量存储。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
search
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
similarity_search
(query[, k, filter])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关性得分在[0, 1]范围内。
similarity_search_with_score
(query[, k, filter])返回与查询最相似的文档及其分数。
similarity_search_with_score_by_vector
(embedding)返回与嵌入向量最相似的文档及其分数。
similarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档,包括分数和ID。
返回与嵌入向量最相似的文档,包括分数和ID。
- Parameters
embedding (Embeddings) –
collection_name (str) –
token (Optional[str]) –
api_endpoint (Optional[str]) –
astra_db_client (Optional[LibAstraDB]) –
async_astra_db_client (Optional[AsyncAstraDB]) –
namespace (Optional[str]) –
metric (Optional[str]) –
batch_size (Optional[int]) –
bulk_insert_batch_concurrency (Optional[int]) –
bulk_insert_overwrite_concurrency (Optional[int]) –
bulk_delete_concurrency (Optional[int]) –
setup_mode (SetupMode) –
pre_delete_collection (bool) –
- Return type
None
- __init__(*, embedding: Embeddings, collection_name: str, token: Optional[str] = None, api_endpoint: Optional[str] = None, astra_db_client: Optional[LibAstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, metric: Optional[str] = None, batch_size: Optional[int] = None, bulk_insert_batch_concurrency: Optional[int] = None, bulk_insert_overwrite_concurrency: Optional[int] = None, bulk_delete_concurrency: Optional[int] = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False) None [source]¶
封装了用于向量存储工作负载的 DataStax Astra DB。
要快速开始并了解详情,请访问 https://docs.datastax.com/en/astra/astra-db-vector/
- 示例:
from langchain_community.vectorstores import AstraDB from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() vectorstore = AstraDB( embedding=embeddings, collection_name="my_store", token="AstraCS:...", api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com" ) vectorstore.add_texts(["Giraffes", "All good here"]) results = vectorstore.similarity_search("Everything's ok", k=1)
- 参数:
embedding: 要使用的嵌入函数。 collection_name: 要创建/使用的 Astra DB 集合的名称。 token: 用于 Astra DB 使用的 API 令牌。 api_endpoint: API 端点的完整 URL,例如
https://<DB-ID>-us-east1.apps.astra.datastax.com。
- astra_db_client: token+api_endpoint 的替代方案,
您可以传递一个已创建的 ‘astrapy.db.AstraDB’ 实例。
- async_astra_db_client: token+api_endpoint 的替代方案,
您可以传递一个已创建的 ‘astrapy.db.AsyncAstraDB’ 实例。
- namespace: 创建集合的命名空间(又名 keyspace)。
默认为数据库的 “default namespace”。
- metric: 要在 Astra DB 中使用的相似性函数之一。
如果省略,将使用 Astra DB API 的默认值(即 “cosine” - 但是, 出于性能原因,如果嵌入已归一化为一,建议使用 “dot_product”)。
batch_size: 用于批量插入的批量大小。 bulk_insert_batch_concurrency: 并发插入批次的线程数或协程数。 bulk_insert_overwrite_concurrency: 在批次中插入已存在条目的线程数或协程数。 bulk_delete_concurrency: 并发删除多行的线程数。 pre_delete_collection: 是否在创建集合之前删除集合。
如果为 False 并且集合已存在,则将使用该集合。
- 注意:
对于同步
add_texts()
中的并发性,根据经验,在典型客户端机器上, 建议将数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 保持远低于 1000,以避免耗尽客户端的多线程/网络资源。 预设的默认值相对保守,以满足大多数机器的规格,但一个明智的选择可能是:bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
需要进行一些实验来找到最佳结果, 这取决于机器/网络规格以及预期工作负载(特别是写入是现有 id 的更新的频率)。 请记住,您也可以将并发设置传递给
add_texts()
和add_documents()
的各个调用。
- Parameters
embedding (Embeddings) –
collection_name (str) –
token (Optional[str]) –
api_endpoint (Optional[str]) –
astra_db_client (Optional[LibAstraDB]) –
async_astra_db_client (Optional[AsyncAstraDB]) –
namespace (Optional[str]) –
metric (Optional[str]) –
batch_size (Optional[int]) –
bulk_insert_batch_concurrency (Optional[int]) –
bulk_insert_overwrite_concurrency (Optional[int]) –
bulk_delete_concurrency (Optional[int]) –
setup_mode (SetupMode) –
pre_delete_collection (bool) –
- Return type
None
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, *, batch_size: Optional[int] = None, batch_concurrency: Optional[int] = None, overwrite_concurrency: Optional[int] = None, **kwargs: Any) List[str] [source]¶
通过嵌入将文本传递并将其添加到向量存储中。
如果传递了显式的ids,那些id已经在存储中的条目将被替换。
- 参数:
texts:要添加到向量存储中的文本。 metadatas:元数据的可选列表。 ids:id的可选列表。 batch_size:每个API调用中的文档数量。
检查底层Astra DB HTTP API规范以获取最大值 (在编写本文时为20)。如果未提供,默认为 实例级别设置。
- batch_concurrency:处理插入批次的线程数
并发。如果未提供,默认为实例级别 设置。
- overwrite_concurrency:处理线程数
每个批次中的现有文档(需要单独的API调用)。 如果未提供,默认为实例级别设置。
- 注意:
元数据字典中允许的字段名称有限制 来自底层Astra DB API。例如,`$`(美元符号)不能在字典键中使用。 有关详细信息,请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html
- 返回:
添加的文本的id列表。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
batch_size (Optional[int]) –
batch_concurrency (Optional[int]) –
overwrite_concurrency (Optional[int]) –
kwargs (Any) –
- Return type
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, *, batch_size: Optional[int] = None, batch_concurrency: Optional[int] = None, overwrite_concurrency: Optional[int] = None, **kwargs: Any) List[str] [source]¶
通过嵌入将文本传递并将其添加到向量存储中。
如果传递了显式的ids,那些id已经在存储中的条目将被替换。
- 参数:
texts:要添加到向量存储中的文本。 metadatas:元数据的可选列表。 ids:id的可选列表。 batch_size:每个API调用中的文档数量。
检查底层Astra DB HTTP API规范以获取最大值 (在编写本文时为20)。如果未提供,默认为 实例级别设置。
- batch_concurrency:处理插入批次的线程数
并发。如果未提供,默认为实例级别 设置。
- overwrite_concurrency:处理线程数
每个批次中的现有文档(需要单独的API调用)。 如果未提供,默认为实例级别设置。
- 注意:
元数据字典中允许的字段名称有限制 来自底层Astra DB API。例如,`$`(美元符号)不能在字典键中使用。 有关详细信息,请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html
- 返回:
添加的文本的id列表。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
batch_size (Optional[int]) –
batch_concurrency (Optional[int]) –
overwrite_concurrency (Optional[int]) –
kwargs (Any) –
- Return type
List[str]
- async adelete(ids: Optional[List[str]] = None, concurrency: Optional[int] = None, **kwargs: Any) Optional[bool] [source]¶
根据向量ID删除。
- 参数:
ids:要删除的ID列表。 concurrency:单个文档删除请求的最大并发数。
默认为实例级设置。
**kwargs:子类可能使用的其他关键字参数。
- 返回:
如果删除成功则为True,否则为False。
- Parameters
ids (Optional[List[str]]) –
concurrency (Optional[int]) –
kwargs (Any) –
- Return type
Optional[bool]
- async adelete_by_document_id(document_id: str) bool [source]¶
从存储中删除单个文档,给定其文档ID。
- 参数:
document_id:文档ID
- 返回值:
如果确实已删除文档,则为True,如果未找到ID,则为False。
- Parameters
document_id (str) –
- Return type
bool
- async adelete_collection() None [source]¶
完全从数据库中删除集合(与:meth:`~aclear`相反,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。
- Return type
None
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) ADBVST [source]¶
从原始文本创建一个Astra DB向量存储。
- 参数:
texts: 要插入的文本。 embedding: 存储中要使用的嵌入函数。 metadatas: 文本的元数据字典。 ids: 要与文本关联的ID。 **kwargs: 您可以传递任何您想要的参数
给
add_texts()
和/或 ‘AstraDB’ 构造函数 (有关详细信息,请参阅这些方法)。这些参数将被 传递到相应的方法中。- 返回:
一个 AstraDb 向量存储。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
ADBVST
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找相似文档的查询。 k:要返回的文档数量。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果中多样性的程度,
0对应最大多样性,1对应最小多样性。
filter:要应用的元数据过滤器。
- 返回:
通过最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding: 查找与之相似的文档的嵌入。 k: 要返回的文档数量。 fetch_k: 要获取的文档数量,以传递给MMR算法。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,
其中0对应于最大多样性,1对应于最小多样性。
filter: 要应用的元数据过滤器。
- 返回:
通过最大边际相关性选择的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从此VectorStore初始化的VectorStoreRetriever。
- 参数:
- search_type(可选[str]):定义Retriever应执行的搜索类型。
可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。
- search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:
k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选
- 返回:
VectorStoreRetriever:VectorStore的Retriever类。
示例:
# 检索更多具有更高多样性的文档 # 如果数据集中有许多相似的文档,则很有用 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # 为MMR算法考虑更多文档 # 但只返回前5个 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # 仅检索具有特定阈值以上相关性分数的文档 docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # 仅从数据集中获取最相似的单个文档 docsearch.as_retriever(search_kwargs={'k': 1}) # 使用筛选器仅从特定论文中检索文档 docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- Parameters
kwargs (Any) –
- Return type
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- 参数:
query:要查找类似文档的查询。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询最相似的文档列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数:
embedding:要查找与之相似文档的嵌入。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性分数在范围[0, 1]内,异步执行。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似度分数)的列表
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档及其分数。
- 参数:
query:要查找相似文档的查询。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档及其分数的列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与嵌入向量最相似的文档及其分数。
- 参数:
embedding: 要查找相似文档的嵌入。 k: 要返回的文档数量。默认为4。 filter: 要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档列表及其分数。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score_id(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与查询最相似的文档,包括分数和ID。
- 参数:
query:要查找类似文档的查询。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询最相似的文档的(文档,分数,ID)列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float, str]]
- async asimilarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与嵌入向量最相似的文档,包括分数和ID。
- 参数:
embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档列表,包括(文档,分数,ID)。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float, str]]
- delete(ids: Optional[List[str]] = None, concurrency: Optional[int] = None, **kwargs: Any) Optional[bool] [source]¶
根据向量ID删除。
- 参数:
ids:要删除的ID列表。 并发性:发出单个文档删除请求的线程的最大数量。
默认为实例级设置。
- 返回:
如果删除成功则为True,否则为False。
- Parameters
ids (Optional[List[str]]) –
concurrency (Optional[int]) –
kwargs (Any) –
- Return type
Optional[bool]
- delete_by_document_id(document_id: str) bool [source]¶
从存储中删除单个文档,给定其文档ID。
- 参数:
document_id:文档ID
- 返回值:
如果确实已删除文档,则为True,如果未找到ID,则为False。
- Parameters
document_id (str) –
- Return type
bool
- delete_collection() None [source]¶
完全从数据库中删除集合(与:meth:`~clear`相反,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。
- Return type
None
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) ADBVST [source]¶
从文档列表创建一个Astra DB向量存储。
这是一个实用方法,它委托给’from_texts’(请参阅该方法)。
参数:参见’from_texts’,不同之处在于这里您必须提供’documents’来替代’texts’和’metadatas’。
- 返回:
一个`AstraDB`向量存储。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
ADBVST
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) ADBVST [source]¶
从原始文本创建一个Astra DB向量存储。
- 参数:
texts: 要插入的文本。 embedding: 存储中要使用的嵌入函数。 metadatas: 文本的元数据字典。 ids: 要与文本关联的ID。 **kwargs: 您可以传递任何您想要的参数
给
add_texts()
和/或 ‘AstraDB’ 构造函数 (有关详细信息,请参阅这些方法)。这些参数将被 传递到相应的方法中。- 返回:
一个 AstraDb 向量存储。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
ADBVST
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找相似文档的查询。 k:要返回的文档数量。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果中多样性的程度,
0对应最大多样性,1对应最小多样性。
filter:要应用的元数据过滤器。
- 返回:
通过最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding: 查找与之相似的文档的嵌入。 k: 要返回的文档数量。 fetch_k: 要获取的文档数量,以传递给MMR算法。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,
其中0对应于最大多样性,1对应于最小多样性。
filter: 要应用的元数据过滤器。
- 返回:
通过最大边际相关性选择的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- 参数:
query:要查找类似文档的查询。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询最相似的文档列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数:
embedding:要查找与之相似文档的嵌入。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性得分在[0, 1]范围内。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似性得分)
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档及其分数。
- 参数:
query:要查找相似文档的查询。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档及其分数的列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与嵌入向量最相似的文档及其分数。
- 参数:
embedding: 要查找相似文档的嵌入。 k: 要返回的文档数量。默认为4。 filter: 要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档列表及其分数。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score_id(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与查询最相似的文档,包括分数和ID。
- 参数:
query:要查找类似文档的查询。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询最相似的文档的(文档,分数,ID)列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float, str]]
- similarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与嵌入向量最相似的文档,包括分数和ID。
- 参数:
embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 filter:要应用的元数据过滤器。
- 返回:
与查询向量最相似的文档列表,包括(文档,分数,ID)。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
- Return type
List[Tuple[Document, float, str]]