AstraDB向量存储#
- class langchain_astradb.vectorstores.AstraDBVectorStore(*, collection_name: str, embedding: Embeddings | None = None, token: str | TokenProvider | None = None, api_endpoint: str | None = None, environment: str | None = None, namespace: str | None = None, metric: str | None = None, batch_size: int | None = None, bulk_insert_batch_concurrency: int | None = None, bulk_insert_overwrite_concurrency: int | None = None, bulk_delete_concurrency: int | None = None, setup_mode: SetupMode | None = None, pre_delete_collection: bool = False, metadata_indexing_include: Iterable[str] | None = None, metadata_indexing_exclude: Iterable[str] | None = None, collection_indexing_policy: dict[str, Any] | None = None, collection_vector_service_options: CollectionVectorServiceOptions | None = None, collection_embedding_api_key: str | EmbeddingHeadersProvider | None = None, content_field: str | None = None, ignore_invalid_documents: bool = False, autodetect_collection: bool = False, ext_callers: list[tuple[str | None, str | None] | str | None] | None = None, component_name: str = 'langchain_vectorstore', astra_db_client: AstraDBClient | None = None, async_astra_db_client: AsyncAstraDBClient | None = None)[来源]#
AstraDB 向量存储集成。
- Setup:
安装
langchain-astradb
包并前往 AstraDB 网站,创建一个账户,创建一个 新数据库并 创建一个应用程序令牌。pip install -qU langchain-astradb
- Key init args — indexing params:
- collection_name: str
集合的名称。
- embedding: Embeddings
使用的嵌入函数。
- Key init args — client params:
- api_endpoint: str
AstraDB API 端点。
- token: str
Astra DB 使用所需的 API 令牌。
- namespace: Optional[str]
命名空间(也称为键空间),集合在此创建
- Instantiate:
从您的数据库仪表板获取您的API端点和应用程序令牌。
import getpass from langchain_astradb import AstraDBVectorStore from langchain_openai import OpenAIEmbeddings ASTRA_DB_API_ENDPOINT = getpass.getpass("ASTRA_DB_API_ENDPOINT = ") ASTRA_DB_APPLICATION_TOKEN = getpass.getpass("ASTRA_DB_APPLICATION_TOKEN = ") vector_store = AstraDBVectorStore( collection_name="astra_vector_langchain", embedding=OpenAIEmbeddings(), api_endpoint=ASTRA_DB_API_ENDPOINT, token=ASTRA_DB_APPLICATION_TOKEN, )
让向量存储从现有集合中找出其配置(数据库上的文档方案),在服务器端嵌入的情况下:
import getpass from langchain_astradb import AstraDBVectorStore ASTRA_DB_API_ENDPOINT = getpass.getpass("ASTRA_DB_API_ENDPOINT = ") ASTRA_DB_APPLICATION_TOKEN = getpass.getpass("ASTRA_DB_APPLICATION_TOKEN = ") vector_store = AstraDBVectorStore( collection_name="astra_vector_langchain", api_endpoint=ASTRA_DB_API_ENDPOINT, token=ASTRA_DB_APPLICATION_TOKEN, autodetect_collection=True, )
- Add Documents:
from langchain_core.documents import Document document_1 = Document(page_content="foo", metadata={"baz": "bar"}) document_2 = Document(page_content="thud", metadata={"bar": "baz"}) document_3 = Document(page_content="i will be deleted :(") documents = [document_1, document_2, document_3] ids = ["1", "2", "3"] vector_store.add_documents(documents=documents, ids=ids)
- Delete Documents:
vector_store.delete(ids=["3"])
- Search:
results = vector_store.similarity_search(query="thud",k=1) for doc in results: print(f"* {doc.page_content} [{doc.metadata}]")
thud [{'bar': 'baz'}]
- Search with filter:
results = vector_store.similarity_search(query="thud",k=1,filter={"bar": "baz"}) for doc in results: print(f"* {doc.page_content} [{doc.metadata}]")
thud [{'bar': 'baz'}]
- Search with score:
results = vector_store.similarity_search_with_score(query="qux",k=1) for doc, score in results: print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
[SIM=0.916135] foo [{'baz': 'bar'}]
- Async:
# add documents await vector_store.aadd_documents(documents=documents, ids=ids) # delete documents await vector_store.adelete(ids=["3"]) # search results = vector_store.asimilarity_search(query="thud",k=1) # search with score results = await vector_store.asimilarity_search_with_score(query="qux",k=1) for doc,score in results: print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
[SIM=0.916135] foo [{'baz': 'bar'}]
- Use as Retriever:
retriever = vector_store.as_retriever( search_type="similarity_score_threshold", search_kwargs={"k": 1, "score_threshold": 0.5}, ) retriever.invoke("thud")
[Document(metadata={'bar': 'baz'}, page_content='thud')]
围绕DataStax Astra DB的包装器,用于向量存储工作负载。
有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra-db-serverless/index.html
- Parameters:
embedding (Embeddings | None) – 使用的嵌入函数或服务。 这允许使用客户端嵌入函数或调用外部嵌入提供者。如果提供了
embedding
,则不能提供参数collection_vector_service_options
和collection_embedding_api_key
。collection_name (str) – 要创建/使用的Astra DB集合的名称。
token (str | TokenProvider | None) – 用于Astra DB的API令牌,可以是字符串形式,也可以是
astrapy.authentication.TokenProvider
的子类。 如果未提供,则会检查环境变量ASTRA_DB_APPLICATION_TOKEN。api_endpoint (str | None) – API端点的完整URL,例如
https://
。如果未提供, 则会检查环境变量 ASTRA_DB_API_ENDPOINT。-us-east1.apps.astra.datastax.com environment (str | None) – 一个字符串,指定目标数据API的环境。 如果省略,默认为“prod”(Astra DB生产环境)。 其他值在
astrapy.constants.Environment
枚举类中。namespace (str | None) – 创建集合的命名空间(也称为keyspace)。 如果未提供,则检查环境变量 ASTRA_DB_KEYSPACE。 默认为数据库的“默认命名空间”。
metric (str | None) – 在Astra DB中可用的相似性函数。 如果未指定,将使用Astra DB API的默认值(即“cosine” - 但是, 出于性能原因,如果嵌入已归一化为1,则建议使用“dot_product”)。
batch_size (int | None) – 每次插入API请求的文档块大小。如果未提供,将应用astrapy的默认值。
bulk_insert_batch_concurrency (int | None) – 并发插入批次的线程或协程数量。
bulk_insert_overwrite_concurrency (int | None) – 批量插入预存在条目时的线程或协程数量。
bulk_delete_concurrency (int | None) – 用于多条目删除的线程或协程数量。
setup_mode (SetupMode | None) – 用于创建集合的模式(SYNC、ASYNC 或 OFF)。
pre_delete_collection (bool) – 是否在创建集合之前删除它。 如果为False且集合已存在,则将直接使用该集合。
metadata_indexing_include (Iterable[str] | None) – 一个允许列表,包含应在搜索中索引以进行后续过滤的特定元数据子字段。
metadata_indexing_exclude (Iterable[str] | None) – 一个特定元数据子字段的拒绝列表,这些子字段不应被索引以便在搜索中进行后续过滤。
collection_indexing_policy (dict[str, Any] | None) – 一个完整的“索引”规范,用于指定哪些字段应该被索引以便在搜索中进行后续过滤。此字典必须符合API规范(参见 https://docs.datastax.com/en/astra-db-serverless/api-reference/collections.html#the-indexing-option)
collection_vector_service_options (CollectionVectorServiceOptions | None) – 指定在Astra DB中使用服务器端嵌入。如果传递此参数,则不能提供
embedding
。collection_embedding_api_key (str | EmbeddingHeadersProvider | None) – 用于在Astra DB中使用服务器端嵌入。通过此参数,可以提供一个API密钥,该密钥将随每个数据请求传递给Astra DB。此参数可以是字符串或
astrapy.authentication.EmbeddingHeadersProvider
的子类。这在服务已为集合配置但Astra的密钥管理系统中未存储相应密钥时非常有用。content_field (str | None) – 文档保存在Astra DB时包含文本内容的字段名称。对于向量化集合,不能指定此字段;对于非向量化集合,默认为“content”。 特殊值“*”只有在autodetect_collection=True时才能传递。在这种情况下,通过检查集合中的一些文档来猜测文本内容的键的实际名称,假设较长的字符串是最可能的候选者。 请理解此方法的局限性,并在为此参数传递
"*"
之前对您的数据有所了解。ignore_invalid_documents (bool) – 如果为False(默认值),当在Astra DB集合中发现不符合预期形状的文档时,会引发异常。如果设置为True,则忽略数据库中的此类结果并发出警告。请注意,在这种情况下,相似性搜索可能会返回比所需的
k
更少的结果。autodetect_collection (bool) – 如果为True,则启用自动检测行为。 存储将查找提供的名称的现有集合,并从中推断存储设置。默认值为False。 在自动检测模式下,
content_field
可以指定为"*"
,意味着 将尝试通过检查来确定它(除非启用了向量化,在这种情况下content_field
被忽略)。 在自动检测模式下,存储不仅确定嵌入是客户端还是服务器端的,而且最重要的是, 在数据库上自动切换文档的“嵌套”和“扁平”表示(即,将元数据键值对分组在metadata
字段中或分散在文档的顶层)。前一种方案是AstraDBVectorStore的 原生模式;存储在后一种情况下,如果向量集合是通过外部手段(如第三方数据导入工具) 填充的,则在应用AstraDBVectorStore之前会采用后一种方案。 请注意,如果此参数为True,则不能使用以下参数:metric
,setup_mode
,metadata_indexing_include
,metadata_indexing_exclude
,collection_indexing_policy
,collection_vector_service_options
。ext_callers (list[tuple[str | None, str | None] | str | None] | None) – 一个或多个调用者身份,用于在User-Agent头中标识Data API调用。这是一个(名称,版本)对的列表,如果没有提供版本信息,则只是字符串,如果提供,将成为与此组件相关的所有API请求中User-Agent字符串的前导部分。
component_name (str) – 用于在传递给Data API的用户代理字符串中标识此特定组件的字符串。默认为“langchain_vectorstore”,但如果此组件实际上作为另一个组件(如图形向量存储)的构建块,则可以覆盖此值。
astra_db_client (AstraDBClient | None) – 从版本0.3.5开始已弃用。 请使用‘token’、‘api_endpoint’和可选的‘environment’。 你可以传递一个已经创建的‘astrapy.db.AstraDB’实例 (作为‘token’、‘api_endpoint’和‘environment’的替代方案)。
async_astra_db_client (AsyncAstraDBClient | None) – 从版本0.3.5开始已弃用。 请使用‘token’、‘api_endpoint’和可选的‘environment’。 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例 (作为‘token’、‘api_endpoint’和‘environment’的替代方案)。
注意
对于同步
add_texts()
中的并发性,作为一般规则,在典型的客户端机器上,建议保持数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于1000,以避免耗尽客户端的多线程/网络资源。硬编码的默认值有些保守,以满足大多数机器的规格,但一个合理的测试选择可能是:bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
需要一些实验来确定最佳结果,这取决于机器/网络规格和预期的工作负载(特别是,写入是现有ID的更新的频率)。记住,你可以将并发设置传递给对
add_texts()
和add_documents()
的单个调用。属性
embeddings
访问提供的嵌入对象。
方法
__init__
(*, collection_name[, embedding, ...])用于向量存储工作负载的DataStax Astra DB封装器。
aadd_documents
(documents, **kwargs)异步运行更多文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas, ids, ...])将文本通过嵌入模型处理并添加到向量存储中。
aclear
()清空集合中的所有存储条目。
add_documents
(documents, **kwargs)在向量存储中添加或更新文档。
add_texts
(texts[, metadatas, ids, ...])将文本通过嵌入模型处理并将其添加到向量存储中。
adelete
([ids, concurrency])通过向量ID删除。
adelete_by_document_id
(document_id)根据文档ID从存储中删除单个文档。
adelete_by_metadata_filter
(filter)删除所有符合特定元数据过滤条件的文档。
完全从数据库中删除集合。
afrom_documents
(documents[, embedding])从文档列表创建Astra DB向量存储。
afrom_texts
(texts[, embedding, metadatas, ids])从原始文本创建Astra DB向量存储。
aget_by_document_id
(document_id)根据文档ID从存储中检索单个文档。
aget_by_ids
(ids, /)异步通过ID获取文档。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
ametadata_search
([filter, n])通过元数据搜索获取文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步返回与查询最相似的文档,使用指定的搜索类型。
asimilarity_search
(query[, k, filter])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
asimilarity_search_with_embedding
(query[, ...])返回与查询最相似的文档及其嵌入。
返回与嵌入向量最相似的文档。
异步返回文档和相关度分数,范围在[0, 1]之间。
asimilarity_search_with_score
(query[, k, filter])返回与查询最相似的文档及其分数。
返回与嵌入向量最相似的文档及其分数。
asimilarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档,包含分数和ID。
返回与嵌入向量最相似的文档及其分数和ID。
aupdate_metadata
(id_to_metadata, *[, ...])添加/覆盖现有文档的元数据。
clear
()清空集合中的所有存储条目。
delete
([ids, concurrency])通过向量ID删除。
delete_by_document_id
(document_id)根据文档ID从存储中删除单个文档。
delete_by_metadata_filter
(filter)删除所有符合特定元数据过滤条件的文档。
从数据库中完全删除集合。
filter_to_query
(filter_dict)根据元数据过滤器准备用于数据库的查询。
from_documents
(documents[, embedding])从文档列表创建Astra DB向量存储。
from_texts
(texts[, embedding, metadatas, ids])从原始文本创建Astra DB向量存储。
get_by_document_id
(document_id)根据文档ID从存储中检索单个文档。
get_by_ids
(ids, /)通过ID获取文档。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
metadata_search
([filter, n])通过元数据搜索获取文档。
search
(query, search_type, **kwargs)使用指定的搜索类型返回与查询最相似的文档。
similarity_search
(query[, k, filter])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
similarity_search_with_embedding
(query[, k, ...])返回与查询最相似的文档及其嵌入。
返回与嵌入向量最相似的文档。
返回文档和相关分数,分数范围在[0, 1]之间。
similarity_search_with_score
(query[, k, filter])返回与查询最相似的文档及其分数。
similarity_search_with_score_by_vector
(embedding)返回与嵌入向量最相似的文档及其分数。
similarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档及其分数和ID。
返回与嵌入向量最相似的文档及其分数和ID。
update_metadata
(id_to_metadata, *[, ...])添加/覆盖现有文档的元数据。
- __init__(*, collection_name: str, embedding: Embeddings | None = None, token: str | TokenProvider | None = None, api_endpoint: str | None = None, environment: str | None = None, namespace: str | None = None, metric: str | None = None, batch_size: int | None = None, bulk_insert_batch_concurrency: int | None = None, bulk_insert_overwrite_concurrency: int | None = None, bulk_delete_concurrency: int | None = None, setup_mode: SetupMode | None = None, pre_delete_collection: bool = False, metadata_indexing_include: Iterable[str] | None = None, metadata_indexing_exclude: Iterable[str] | None = None, collection_indexing_policy: dict[str, Any] | None = None, collection_vector_service_options: CollectionVectorServiceOptions | None = None, collection_embedding_api_key: str | EmbeddingHeadersProvider | None = None, content_field: str | None = None, ignore_invalid_documents: bool = False, autodetect_collection: bool = False, ext_callers: list[tuple[str | None, str | None] | str | None] | None = None, component_name: str = 'langchain_vectorstore', astra_db_client: AstraDBClient | None = None, async_astra_db_client: AsyncAstraDBClient | None = None) None [来源]#
围绕DataStax Astra DB的包装器,用于向量存储工作负载。
有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra-db-serverless/index.html
- Parameters:
embedding (Embeddings | None) – 使用的嵌入函数或服务。 这允许使用客户端嵌入函数或调用外部嵌入提供者。如果提供了
embedding
,则不能提供参数collection_vector_service_options
和collection_embedding_api_key
。collection_name (str) – 要创建/使用的Astra DB集合的名称。
token (str | TokenProvider | None) – 用于Astra DB的API令牌,可以是字符串形式,也可以是
astrapy.authentication.TokenProvider
的子类。 如果未提供,则会检查环境变量ASTRA_DB_APPLICATION_TOKEN。api_endpoint (str | None) – API端点的完整URL,例如
https://
。如果未提供, 则会检查环境变量 ASTRA_DB_API_ENDPOINT。-us-east1.apps.astra.datastax.com environment (str | None) – 一个字符串,指定目标数据API的环境。 如果省略,默认为“prod”(Astra DB生产环境)。 其他值在
astrapy.constants.Environment
枚举类中。namespace (str | None) – 创建集合的命名空间(也称为keyspace)。 如果未提供,则检查环境变量 ASTRA_DB_KEYSPACE。 默认为数据库的“默认命名空间”。
metric (str | None) – 在Astra DB中可用的相似性函数。 如果未指定,将使用Astra DB API的默认值(即“cosine” - 但是, 出于性能原因,如果嵌入已归一化为1,则建议使用“dot_product”)。
batch_size (int | None) – 每次插入API请求的文档块大小。如果未提供,将应用astrapy的默认值。
bulk_insert_batch_concurrency (int | None) – 并发插入批次的线程或协程数量。
bulk_insert_overwrite_concurrency (int | None) – 批量插入预存在条目时的线程或协程数量。
bulk_delete_concurrency (int | None) – 用于多条目删除的线程或协程数量。
setup_mode (SetupMode | None) – 用于创建集合的模式(SYNC、ASYNC 或 OFF)。
pre_delete_collection (bool) – 是否在创建集合之前删除它。 如果为False且集合已存在,则将直接使用该集合。
metadata_indexing_include (Iterable[str] | None) – 一个允许列表,包含应在搜索中索引以进行后续过滤的特定元数据子字段。
metadata_indexing_exclude (Iterable[str] | None) – 一个特定元数据子字段的拒绝列表,这些子字段不应被索引以便在搜索中进行后续过滤。
collection_indexing_policy (dict[str, Any] | None) – 一个完整的“索引”规范,用于指定哪些字段应该被索引以便在搜索中进行后续过滤。此字典必须符合API规范(参见 https://docs.datastax.com/en/astra-db-serverless/api-reference/collections.html#the-indexing-option)
collection_vector_service_options (CollectionVectorServiceOptions | None) – 指定在Astra DB中使用服务器端嵌入。如果传递此参数,则不能提供
embedding
。collection_embedding_api_key (str | EmbeddingHeadersProvider | None) – 用于在Astra DB中使用服务器端嵌入。通过此参数,可以提供一个API密钥,该密钥将随每个数据请求传递给Astra DB。此参数可以是字符串或
astrapy.authentication.EmbeddingHeadersProvider
的子类。这在服务已为集合配置但Astra的密钥管理系统中未存储相应密钥时非常有用。content_field (str | None) – 文档保存在Astra DB时包含文本内容的字段名称。对于向量化集合,不能指定此字段;对于非向量化集合,默认为“content”。 特殊值“*”只有在autodetect_collection=True时才能传递。在这种情况下,通过检查集合中的一些文档来猜测文本内容的键的实际名称,假设较长的字符串是最可能的候选者。 请理解此方法的局限性,并在为此参数传递
"*"
之前对您的数据有所了解。ignore_invalid_documents (bool) – 如果为False(默认值),当在Astra DB集合中发现不符合预期形状的文档时,会抛出异常。如果设置为True,则忽略数据库中的此类结果并发出警告。请注意,在这种情况下,相似性搜索可能会返回比所需的
k
更少的结果。autodetect_collection (bool) – 如果为True,则启用自动检测行为。 存储将查找提供的名称的现有集合,并从中推断存储设置。默认值为False。 在自动检测模式下,
content_field
可以指定为"*"
,意味着 将尝试通过检查来确定它(除非启用了向量化,在这种情况下content_field
被忽略)。 在自动检测模式下,存储不仅确定嵌入是客户端还是服务器端的,而且最重要的是, 在数据库上自动切换文档的“嵌套”和“扁平”表示(即,将元数据键值对分组在metadata
字段中或分散在文档的顶层)。前一种方案是AstraDBVectorStore的 原生模式;存储在后一种情况下,如果向量集合是通过外部手段(如第三方数据导入工具) 填充的,则在应用AstraDBVectorStore之前会采用后一种方案。 请注意,如果此参数为True,则不能使用以下参数:metric
,setup_mode
,metadata_indexing_include
,metadata_indexing_exclude
,collection_indexing_policy
,collection_vector_service_options
。ext_callers (list[tuple[str | None, str | None] | str | None] | None) – 一个或多个调用者身份,用于在User-Agent头中标识Data API调用。这是一个(名称,版本)对的列表,如果没有提供版本信息,则只是字符串,如果提供,将成为与此组件相关的所有API请求中User-Agent字符串的前导部分。
component_name (str) – 用于在传递给Data API的用户代理字符串中标识此特定组件的字符串。默认为“langchain_vectorstore”,但如果此组件实际上作为另一个组件(如图形向量存储)的构建块,则可以覆盖此值。
astra_db_client (AstraDBClient | None) – 从版本0.3.5开始已弃用。 请使用‘token’、‘api_endpoint’以及可选的‘environment’。 你可以传递一个已经创建的‘astrapy.db.AstraDB’实例 (作为‘token’、‘api_endpoint’和‘environment’的替代方案)。
async_astra_db_client (AsyncAstraDBClient | None) – 从版本0.3.5开始已弃用。 请使用‘token’、‘api_endpoint’以及可选的‘environment’。 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例 (作为‘token’、‘api_endpoint’和‘environment’的替代方案)。
- Return type:
无
注意
对于同步
add_texts()
中的并发性,作为一般规则,在典型的客户端机器上,建议保持数量 bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于1000,以避免耗尽客户端的多线程/网络资源。硬编码的默认值有些保守,以满足大多数机器的规格,但一个合理的测试选择可能是:bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
需要一些实验来确定最佳结果,这取决于机器/网络规格和预期的工作负载(特别是,写入是现有ID的更新的频率)。记住,你可以将并发设置传递给对
add_texts()
和add_documents()
的单个调用。
- async aadd_documents(documents: list[Document], **kwargs: Any) list[str] #
通过嵌入异步运行更多文档并将其添加到向量存储中。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果ID的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- async aadd_texts(texts: Iterable[str], metadatas: list[dict] | None = None, ids: list[str] | None = None, *, batch_size: int | None = None, batch_concurrency: int | None = None, overwrite_concurrency: int | None = None, **kwargs: Any) list[str] [来源]#
通过嵌入运行文本并将它们添加到向量存储中。
如果传递显式id,那些id已经在存储中的条目将被替换。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的文本。
metadatas (list[dict] | None) – 可选的元数据列表。
ids (list[str] | None) – 可选的ID列表。
batch_size (int | None) – 每次插入API请求的文档块大小。如果未提供,则默认为向量存储的总体默认值(进而默认为astrapy的默认值)。
batch_concurrency (int | None) – 同时处理插入批次的协程数量。如果未提供,则默认为向量存储的全局设置。
overwrite_concurrency (int | None) – 每个批次中处理已有文档的并发协程数量。如果未提供,则默认为向量存储的全局设置。
**kwargs (Any) – 额外的参数将被忽略。
- Return type:
列表[字符串]
注意
元数据字典中的允许字段名称有一些限制,这些限制来自于底层的Astra DB API。例如,
$
(美元符号)不能用于字典键中。详情请参阅此文档: https://docs.datastax.com/en/astra-db-serverless/api-reference/overview.html#limits- Returns:
添加文本的ID列表。
- Parameters:
texts (可迭代对象[字符串])
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
batch_size (int | None)
batch_concurrency (int | None)
overwrite_concurrency (int | None)
kwargs (Any)
- Return type:
列表[字符串]
- add_documents(documents: list[Document], **kwargs: Any) list[str] #
在向量存储中添加或更新文档。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果id的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- add_texts(texts: Iterable[str], metadatas: list[dict] | None = None, ids: list[str] | None = None, *, batch_size: int | None = None, batch_concurrency: int | None = None, overwrite_concurrency: int | None = None, **kwargs: Any) list[str] [source]#
通过嵌入运行文本并将它们添加到向量存储中。
如果传递显式id,那些id已经在存储中的条目将被替换。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的文本。
metadatas (list[dict] | None) – 可选的元数据列表。
ids (list[str] | None) – 可选的ID列表。
batch_size (int | None) – 每次插入API请求的文档块大小。如果未提供,则默认为向量存储的总体默认值(进而默认为astrapy的默认值)。
batch_concurrency (int | None) – 并发处理插入批次的线程数。如果未提供,则默认为向量存储的全局设置。
overwrite_concurrency (int | None) – 每个批次中处理已有文档的线程数。如果未提供,则默认为向量存储的全局设置。
**kwargs (Any) – 额外的参数将被忽略。
- Return type:
列表[字符串]
注意
元数据字典中的允许字段名称有一些限制,这些限制来自于底层的Astra DB API。例如,
$
(美元符号)不能用于字典键中。详情请参阅此文档: https://docs.datastax.com/en/astra-db-serverless/api-reference/overview.html#limits- Returns:
添加文本的ID列表。
- Parameters:
texts (可迭代对象[字符串])
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
batch_size (int | None)
batch_concurrency (int | None)
overwrite_concurrency (int | None)
kwargs (Any)
- Return type:
列表[字符串]
- async adelete(ids: list[str] | None = None, concurrency: int | None = None, **kwargs: Any) bool | None [source]#
通过向量ID删除。
- Parameters:
ids (list[str] | None) – 要删除的ID列表。
concurrency (int | None) – 单文档删除请求的最大并发协程数。默认为向量存储的全局设置。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
如果删除(完全)成功则为True,否则为False。
- Return type:
布尔值 | 无
- async adelete_by_document_id(document_id: str) bool [source]#
根据文档ID从存储中删除单个文档。
- Parameters:
document_id (str) – 文档ID
- Returns:
如果文档确实已被删除则为True,如果未找到ID则为False。
- Return type:
布尔
- async adelete_by_metadata_filter(filter: dict[str, Any]) int [source]#
删除所有符合特定元数据过滤条件的文档。
此操作不以任何方式使用向量嵌入,它只是删除所有元数据与提供条件匹配的文档。
- Parameters:
filter (dict[str, Any]) – 应用于元数据的过滤器。过滤器不能为空。
- Returns:
表示已删除文档数量的数字。
- Return type:
整数
- async adelete_collection() None [source]#
从数据库中完全删除集合。
从数据库中完全删除集合(与
aclear()
不同,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。- Return type:
无
- async classmethod afrom_documents(documents: list[Document], embedding: Embeddings | None = None, **kwargs: Any) AstraDBVectorStore [来源]#
从文档列表创建一个Astra DB向量存储。
实用方法,该方法委托给
afrom_texts()
(参见该方法)。- Args: see
afrom_texts()
, except here you have to supplydocuments
代替
texts
和metadatas
。
- Returns:
一个
AstraDBVectorStore
向量存储。- Parameters:
文档 (列表[Document])
embedding (Embeddings | None)
kwargs (Any)
- Return type:
- Args: see
- async classmethod afrom_texts(texts: list[str], embedding: Embeddings | None = None, metadatas: list[dict] | None = None, ids: list[str] | None = None, **kwargs: Any) AstraDBVectorStore [source]#
从原始文本创建Astra DB向量存储。
- Parameters:
texts (list[str]) – 要插入的文本。
embedding (Embeddings | None) – 使用的嵌入函数。
metadatas (list[dict] | None) – 文本的元数据字典。
ids (list[str] | None) – 与文本关联的ID。
**kwargs (Any) – 你可以传递任何你想要的参数到
aadd_texts()
和/或到AstraDBVectorStore
构造函数(详见这些方法的详细信息)。这些参数将按原样传递给相应的方法。
- Returns:
一个
AstraDBVectorStore
向量存储。- Return type:
- async aget_by_document_id(document_id: str) Document | None [来源]#
根据文档ID从存储中检索单个文档。
- Parameters:
document_id (str) – 文档ID
- Returns:
如果文档存在,则返回该文档。否则返回 None。
- Return type:
Document | 无
- async aget_by_ids(ids: Sequence[str], /) list[Document] #
通过ID异步获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- async amax_marginal_relevance_search_by_vector(embedding: list[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- async ametadata_search(filter: dict[str, Any] | None = None, n: int = 5) Iterable[Document] [source]#
通过元数据搜索获取文档。
- Parameters:
filter (dict[str, Any] | None) – 用于查询的元数据。
n (int) – 返回的最大文档数量。
- Return type:
可迭代的[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever #
返回从此VectorStore初始化的VectorStoreRetriever。
- Parameters:
**kwargs (Any) –
传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
- search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
- 可以包括以下内容:
k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值
用于similarity_score_threshold
- fetch_k: 传递给MMR算法的文档数量
(默认:20)
- lambda_mult: MMR返回结果的多样性;
1表示最小多样性,0表示最大多样性。(默认:0.5)
filter: 按文档元数据过滤
- Returns:
VectorStore的检索器类。
- Return type:
示例:
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) list[Document] #
异步返回与查询最相似的文档,使用指定的搜索类型。
- Parameters:
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- async asimilarity_search(query: str, k: int = 4, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [来源]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
与查询最相似的文档列表。
- Return type:
列表[Document]
- async asimilarity_search_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[Document]
- async asimilarity_search_with_embedding(query: str, k: int = 4, filter: dict[str, Any] | None = None) tuple[list[float], list[tuple[Document, list[float]]]] [来源]#
返回与查询嵌入最相似的文档。
还包括查询嵌入向量。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
(查询嵌入向量,文档和嵌入的列表,与查询向量最相似的。)
- Return type:
元组[列表[浮点数], 列表[元组[Document, 列表[浮点数]]]]
- async asimilarity_search_with_embedding_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, list[float]]] [来源]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
(查询嵌入向量,文档和嵌入向量的列表,与查询向量最相似的。)
- Return type:
列表[元组[Document, 列表[浮点数]]]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
异步返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
(文档,相似度分数)的元组列表
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float]] [source]#
返回与查询最相似的文档及其得分。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float]] [source]#
返回与嵌入向量最相似的文档及其得分。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score_id(query: str, k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float, str]] [来源]#
返回与查询最相似的文档,包括分数和ID。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询最相似的(文档,分数,id)列表。
- Return type:
列表[元组[Document, 浮点数, 字符串]]
- async asimilarity_search_with_score_id_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float, str]] [source]#
返回与嵌入向量最相似的文档,包括分数和ID。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档、分数、ID)列表。
- Return type:
列表[元组[Document, 浮点数, 字符串]]
- async aupdate_metadata(id_to_metadata: dict[str, dict], *, overwrite_concurrency: int | None = None) int [source]#
添加/覆盖现有文档的元数据。
对于每个要更新的文档,新的元数据字典会被附加到现有的元数据中,覆盖已经存在的单个键。
- Parameters:
id_to_metadata (dict[str, dict]) – 从文档ID映射到要修改的新元数据以进行更新。此字典中不对应现有文档的键将被静默忽略。此映射的值是用于更新文档的元数据字典。任何预先存在的元数据将与这些条目合并,这些条目在逐个键的基础上具有优先权。
overwrite_concurrency (int | None) – 处理更新的异步任务数量。如果未提供,则默认为向量存储的全局设置。
- Returns:
成功更新的文档数量(即发现存在的文档,因为即使使用{}作为新元数据的更新也被视为成功。)
- Return type:
整数
- delete(ids: list[str] | None = None, concurrency: int | None = None, **kwargs: Any) bool | None [来源]#
通过向量ID删除。
- Parameters:
ids (list[str] | None) – 要删除的ID列表。
concurrency (int | None) – 发出单文档删除请求的最大线程数。默认为向量存储的全局设置。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
如果删除(完全)成功则为True,否则为False。
- Return type:
布尔值 | 无
- delete_by_document_id(document_id: str) bool [源代码]#
根据文档ID从存储中删除单个文档。
- Parameters:
document_id (str) – 文档ID
- Returns:
如果文档确实已被删除则为True,如果未找到ID则为False。
- Return type:
布尔
- delete_by_metadata_filter(filter: dict[str, Any]) int [source]#
删除所有符合特定元数据过滤条件的文档。
此操作不以任何方式使用向量嵌入,它只是删除所有元数据与提供条件匹配的文档。
- Parameters:
filter (dict[str, Any]) – 应用于元数据的过滤器。过滤器不能为空。
- Returns:
表示已删除文档数量的数字。
- Return type:
整数
- delete_collection() None [source]#
从数据库中完全删除集合。
从数据库中完全删除集合(与
clear()
不同,后者仅清空集合)。 存储的数据将丢失且无法恢复,资源将被释放。 请谨慎使用。- Return type:
无
- filter_to_query(filter_dict: dict[str, Any] | None) dict[str, Any] [source]#
根据元数据过滤器准备一个用于数据库的查询。
将元数据上的“抽象”过滤子句编码为查询过滤条件,该条件了解集合模式的选择。
- Parameters:
filter_dict (dict[str, Any] | None) – 一个元数据条件,形式为 {“field”: “value”} 或相关形式。
- Returns:
相应的映射已准备好用于查询,了解用于在数据库上编码文档的模式的详细信息。
- Return type:
字典[str, 任意]
- classmethod from_documents(documents: list[Document], embedding: Embeddings | None = None, **kwargs: Any) AstraDBVectorStore [来源]#
从文档列表创建一个Astra DB向量存储。
实用方法,该方法委托给
from_texts()
(参见该方法)。- Parameters:
texts – 要插入的文本。
documents (list[Document]) – 用于插入存储的Document对象列表。
embedding (Embeddings | None) – 在存储中使用的嵌入函数。
**kwargs (Any) – 你可以传递任何你想要的参数到
add_texts()
和/或到AstraDBVectorStore
构造函数(详见这些方法的详细信息)。这些参数将按原样传递给相应的方法。
- Returns:
一个
AstraDBVectorStore
向量存储。- Return type:
- classmethod from_texts(texts: list[str], embedding: Embeddings | None = None, metadatas: list[dict] | None = None, ids: list[str] | None = None, **kwargs: Any) AstraDBVectorStore [来源]#
从原始文本创建Astra DB向量存储。
- Parameters:
texts (list[str]) – 要插入的文本。
embedding (Embeddings | None) – 在存储中使用的嵌入函数。
metadatas (list[dict] | None) – 文本的元数据字典。
ids (list[str] | None) – 与文本关联的ID。
**kwargs (Any) – 你可以传递任何你想要的参数到
add_texts()
和/或到AstraDBVectorStore
构造函数(详见这些方法的详细信息)。这些参数将按原样传递给相应的方法。
- Returns:
一个
AstraDBVectorStore
向量存储。- Return type:
- get_by_document_id(document_id: str) Document | None [source]#
根据文档ID从存储中检索单个文档。
- Parameters:
document_id (str) – 文档ID
- Returns:
如果文档存在,则返回该文档。否则返回 None。
- Return type:
Document | 无
- get_by_ids(ids: Sequence[str], /) list[Document] #
通过ID获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- max_marginal_relevance_search_by_vector(embedding: list[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [来源]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- metadata_search(filter: dict[str, Any] | None = None, n: int = 5) list[Document] [source]#
通过元数据搜索获取文档。
- Parameters:
filter (dict[str, Any] | None) – 用于查询的元数据。
n (int) – 返回的最大文档数量。
- Return type:
列表[Document]
- search(query: str, search_type: str, **kwargs: Any) list[Document] #
使用指定的搜索类型返回与查询最相似的文档。
- Parameters:
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- similarity_search(query: str, k: int = 4, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
与查询最相似的文档列表。
- Return type:
列表[Document]
- similarity_search_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None, **kwargs: Any) list[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
**kwargs (Any) – 额外的参数将被忽略。
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[Document]
- similarity_search_with_embedding(query: str, k: int = 4, filter: dict[str, Any] | None = None) tuple[list[float], list[tuple[Document, list[float]]]] [source]#
返回与查询嵌入最相似的文档。
还包括查询嵌入向量。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
(查询嵌入向量,文档和嵌入向量的列表,与查询向量最相似的。)
- Return type:
元组[列表[浮点数], 列表[元组[Document, 列表[浮点数]]]]
- similarity_search_with_embedding_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, list[float]]] [来源]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
(查询嵌入向量,文档和嵌入向量的列表,与查询向量最相似的。)
- Return type:
列表[元组[Document, 列表[浮点数]]]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
用于过滤检索到的文档集。
- Returns:
(文档, 相似度分数) 的元组列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score(query: str, k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float]] [source]#
返回与查询最相似的文档及其得分。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float]] [source]#
返回与嵌入向量最相似的文档及其得分。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档,分数)列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score_id(query: str, k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float, str]] [来源]#
返回与查询最相似的文档,包括分数和ID。
- Parameters:
query (str) – 用于查找相似文档的查询。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询最相似的(文档,分数,id)列表。
- Return type:
列表[元组[Document, 浮点数, 字符串]]
- similarity_search_with_score_id_by_vector(embedding: list[float], k: int = 4, filter: dict[str, Any] | None = None) list[tuple[Document, float, str]] [source]#
返回与嵌入向量最相似的文档,包括分数和ID。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (dict[str, Any] | None) – 应用于元数据的过滤器。
- Returns:
与查询向量最相似的(文档、分数、ID)列表。
- Return type:
列表[元组[Document, 浮点数, 字符串]]
- update_metadata(id_to_metadata: dict[str, dict], *, overwrite_concurrency: int | None = None) int [source]#
添加/覆盖现有文档的元数据。
对于每个要更新的文档,新的元数据字典会被附加到现有的元数据中,覆盖已经存在的单个键。
- Parameters:
id_to_metadata (dict[str, dict]) – 从文档ID映射到要修改的新元数据以进行更新。此字典中不对应现有文档的键将被静默忽略。此映射的值是用于更新文档的元数据字典。任何预先存在的元数据将与这些条目合并,这些条目在逐个键的基础上具有优先权。
overwrite_concurrency (int | None) – 用于处理更新的线程数。如果未提供,则默认为向量存储的全局设置。
- Returns:
成功更新的文档数量(即发现存在的文档,因为即使使用{}作为新元数据的更新也被视为成功。)
- Return type:
整数