langchain_community.vectorstores.atlas.AtlasDB

class langchain_community.vectorstores.atlas.AtlasDB(name: str, embedding_function: Optional[Embeddings] = None, api_key: Optional[str] = None, description: str = 'A description for your project', is_public: bool = True, reset_project_if_exists: bool = False)[source]

Atlas向量存储。

Atlas是Nomic的神经数据库和根茎仪器。

要使用,您应该安装``nomic`` python包。

示例:
from langchain_community.vectorstores import AtlasDB
from langchain_community.embeddings.openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
vectorstore = AtlasDB("my_project", embeddings.embed_query)

初始化Atlas客户端

参数:

name (str): 你的项目名称。如果项目已经存在,将被加载。 embedding_function (Optional[Embeddings]): 用于嵌入数据的可选函数。如果为None,则数据将使用Nomic的嵌入模型进行嵌入。 api_key (str): 你的Nomic API密钥 description (str): 项目的描述。 is_public (bool): 你的项目是否可以公开访问。默认为True。 reset_project_if_exists (bool): 如果项目已经存在,是否重置该项目。默认为False。

通常在开发和测试过程中很有用。

Attributes

embeddings

如果可用,访问查询嵌入对象。

Methods

__init__(name[, embedding_function, ...])

初始化Atlas客户端

aadd_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas])

运行更多的文本通过嵌入,并添加到向量存储中。

add_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

add_texts(texts[, metadatas, ids, refresh])

运行更多的文本通过嵌入并添加到向量存储。

adelete([ids])

根据向量ID或其他条件进行删除。

afrom_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas])

返回从文本和嵌入初始化的VectorStore。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

asimilarity_search(query[, k])

返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

返回文档和相关性分数在范围[0, 1]内,异步执行。

asimilarity_search_with_score(*args, **kwargs)

使用异步方式运行相似性搜索与距离。

create_index(**kwargs)

在您的项目中创建一个索引。

delete([ids])

根据向量ID或其他条件进行删除。

from_documents(documents[, embedding, ids, ...])

从文档列表中创建一个AtlasDB向量存储。

from_texts(texts[, embedding, metadatas, ...])

从原始文档创建一个AtlasDB向量存储。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

search(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

similarity_search(query[, k])

使用AtlasDB运行相似性搜索

similarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和相关性得分在[0, 1]范围内。

similarity_search_with_score(*args, **kwargs)

使用距离进行相似性搜索。

Parameters
  • name (str) –

  • embedding_function (Optional[Embeddings]) –

  • api_key (Optional[str]) –

  • description (str) –

  • is_public (bool) –

  • reset_project_if_exists (bool) –

Return type

None

__init__(name: str, embedding_function: Optional[Embeddings] = None, api_key: Optional[str] = None, description: str = 'A description for your project', is_public: bool = True, reset_project_if_exists: bool = False) None[source]

初始化Atlas客户端

参数:

name (str): 你的项目名称。如果项目已经存在,将被加载。 embedding_function (Optional[Embeddings]): 用于嵌入数据的可选函数。如果为None,则数据将使用Nomic的嵌入模型进行嵌入。 api_key (str): 你的Nomic API密钥 description (str): 项目的描述。 is_public (bool): 你的项目是否可以公开访问。默认为True。 reset_project_if_exists (bool): 如果项目已经存在,是否重置该项目。默认为False。

通常在开发和测试过程中很有用。

Parameters
  • name (str) –

  • embedding_function (Optional[Embeddings]) –

  • api_key (Optional[str]) –

  • description (str) –

  • is_public (bool) –

  • reset_project_if_exists (bool) –

Return type

None

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str]

运行更多的文本通过嵌入,并添加到向量存储中。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, refresh: bool = True, **kwargs: Any) List[str][source]

运行更多的文本通过嵌入并添加到向量存储。

参数:

texts (Iterable[str]): 要添加到向量存储的文本。 metadatas (Optional[List[dict]], optional): 元数据的可选列表。 ids (Optional[List[str]]): 一个可选的ID列表。 refresh(bool): 是否刷新索引以更新数据。默认为True。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • refresh (bool) –

  • kwargs (Any) –

Return type

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST

返回从文本和嵌入初始化的VectorStore。

Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

VST

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此VectorStore初始化的VectorStoreRetriever。

参数:
search_type(可选[str]):定义Retriever应执行的搜索类型。

可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。

search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:

k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选

返回:

VectorStoreRetriever:VectorStore的Retriever类。

示例:

# 检索更多具有更高多样性的文档
# 如果数据集中有许多相似的文档,则很有用
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# 为MMR算法考虑更多文档
# 但只返回前5个
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# 仅检索具有特定阈值以上相关性分数的文档
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# 仅从数据集中获取最相似的单个文档
docsearch.as_retriever(search_kwargs={'k': 1})

# 使用筛选器仅从特定论文中检索文档
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
Parameters

kwargs (Any) –

Return type

VectorStoreRetriever

async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询最相似的文档。

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性分数在范围[0, 1]内,异步执行。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似度分数)的列表

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

使用异步方式运行相似性搜索与距离。

Parameters
  • args (Any) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

create_index(**kwargs: Any) Any[source]

在您的项目中创建一个索引。

详细信息请参见 https://docs.nomic.ai/atlas_api.html#nomic.project.AtlasProject.create_index

Parameters

kwargs (Any) –

Return type

Any

delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

classmethod from_documents(documents: List[Document], embedding: Optional[Embeddings] = None, ids: Optional[List[str]] = None, name: Optional[str] = None, api_key: Optional[str] = None, persist_directory: Optional[str] = None, description: str = 'A description for your project', is_public: bool = True, reset_project_if_exists: bool = False, index_kwargs: Optional[dict] = None, **kwargs: Any) AtlasDB[source]

从文档列表中创建一个AtlasDB向量存储。

参数:

name (str): 要创建的集合的名称。 api_key (str): 您的nomic API密钥。 documents (List[Document]): 要添加到向量存储的文档列表。 embedding (Optional[Embeddings]): 嵌入函数。默认为None。 ids (Optional[List[str]]): 文档ID的可选列表。如果为None,

将自动创建ID。

description (str): 项目的描述。 is_public (bool): 项目是否可以公开访问。

默认为True。

reset_project_if_exists (bool): 如果项目已经存在,是否重置此项目。

默认为False。 通常在开发和测试过程中很有用。

index_kwargs (Optional[dict]): 用于索引创建的kwargs字典。

请参阅https://docs.nomic.ai/atlas_api.html

返回:

AtlasDB: Nomic的神经数据库和最精致的根茎仪器

Parameters
  • documents (List[Document]) –

  • embedding (Optional[Embeddings]) –

  • ids (Optional[List[str]]) –

  • name (Optional[str]) –

  • api_key (Optional[str]) –

  • persist_directory (Optional[str]) –

  • description (str) –

  • is_public (bool) –

  • reset_project_if_exists (bool) –

  • index_kwargs (Optional[dict]) –

  • kwargs (Any) –

Return type

AtlasDB

classmethod from_texts(texts: List[str], embedding: Optional[Embeddings] = None, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, name: Optional[str] = None, api_key: Optional[str] = None, description: str = 'A description for your project', is_public: bool = True, reset_project_if_exists: bool = False, index_kwargs: Optional[dict] = None, **kwargs: Any) AtlasDB[source]

从原始文档创建一个AtlasDB向量存储。

参数:

texts(List[str]):要导入的文本列表。 name(str):要创建的项目名称。 api_key(str):您的nomic API密钥。 embedding(Optional[Embeddings]):嵌入函数。默认为None。 metadatas(Optional[List[dict]]):元数据列表。默认为None。 ids(Optional[List[str]):文档ID的可选列表。如果为None,

将自动创建ids。

description(str):项目的描述。 is_public(bool):您的项目是否可以公开访问。

默认为True。

reset_project_if_exists(bool):如果项目已经存在,是否重置该项目。

默认为False。 在开发和测试过程中通常很有用。

index_kwargs(Optional[dict]):用于索引创建的kwargs字典。

请参阅https://docs.nomic.ai/atlas_api.html

返回:

AtlasDB:Nomic的神经数据库和最精致的根茎仪器

Parameters
  • texts (List[str]) –

  • embedding (Optional[Embeddings]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • name (Optional[str]) –

  • api_key (Optional[str]) –

  • description (str) –

  • is_public (bool) –

  • reset_project_if_exists (bool) –

  • index_kwargs (Optional[dict]) –

  • kwargs (Any) –

Return type

AtlasDB

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

使用AtlasDB运行相似性搜索

参数:

query (str): 要搜索的查询文本。 k (int): 要返回的结果数量。默认为4。

返回:

List[Document]: 与查询文本最相似的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

参数:

embedding:要查找与之相似的文档的嵌入。 k:要返回的文档数量。默认为4。

返回:

与查询向量最相似的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性得分在[0, 1]范围内。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似性得分)

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

使用距离进行相似性搜索。

Parameters
  • args (Any) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

Examples using AtlasDB