langchain_community.vectorstores.epsilla.Epsilla

class langchain_community.vectorstores.epsilla.Epsilla(client: Any, embeddings: Embeddings, db_path: Optional[str] = '/tmp/langchain-epsilla', db_name: Optional[str] = 'langchain_store')[source]

封装了Epsilla向量数据库。

作为先决条件,您需要安装``pyepsilla``包 并且有一个运行中的Epsilla向量数据库(例如,通过我们的docker镜像) 请参阅以下文档,了解如何运行Epsilla向量数据库: https://epsilla-inc.gitbook.io/epsilladb/quick-start

参数:

client (Any): 用于连接的Epsilla客户端。 embeddings (Embeddings): 用于嵌入文本的函数。 db_path (Optional[str]): 数据库将被持久化的路径。

默认为”/tmp/langchain-epsilla”。

db_name (Optional[str]): 给加载的数据库命名。

默认为”langchain_store”。

示例:
from langchain_community.vectorstores import Epsilla
from pyepsilla import vectordb

client = vectordb.Client()
embeddings = OpenAIEmbeddings()
db_path = "/tmp/vectorstore"
db_name = "langchain_store"
epsilla = Epsilla(client, embeddings, db_path, db_name)

使用必要的组件进行初始化。

Attributes

embeddings

如果可用,访问查询嵌入对象。

Methods

__init__(client, embeddings[, db_path, db_name])

使用必要的组件进行初始化。

aadd_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas])

运行更多的文本通过嵌入,并添加到向量存储中。

add_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

add_texts(texts[, metadatas, ...])

将文本嵌入并将其添加到数据库中。

adelete([ids])

根据向量ID或其他条件进行删除。

afrom_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas])

返回从文本和嵌入初始化的VectorStore。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

asimilarity_search(query[, k])

返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

返回文档和相关性分数在范围[0, 1]内,异步执行。

asimilarity_search_with_score(*args, **kwargs)

使用异步方式运行相似性搜索与距离。

clear_data([collection_name])

清除集合中的数据。

delete([ids])

根据向量ID或其他条件进行删除。

from_documents(documents, embedding[, ...])

从文档列表创建一个Epsilla向量存储。

from_texts(texts, embedding[, metadatas, ...])

从原始文档创建一个Epsilla向量存储。

get([collection_name, response_fields])

获取集合。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

search(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

similarity_search(query[, k, collection_name])

返回与查询语义最相关的文档。

similarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和相关性得分在[0, 1]范围内。

similarity_search_with_score(*args, **kwargs)

使用距离进行相似性搜索。

use_collection(collection_name)

设置默认使用的集合。

Parameters
  • client (Any) –

  • embeddings (Embeddings) –

  • db_path (Optional[str]) –

  • db_name (Optional[str]) –

__init__(client: Any, embeddings: Embeddings, db_path: Optional[str] = '/tmp/langchain-epsilla', db_name: Optional[str] = 'langchain_store')[source]

使用必要的组件进行初始化。

Parameters
  • client (Any) –

  • embeddings (Embeddings) –

  • db_path (Optional[str]) –

  • db_name (Optional[str]) –

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str]

运行更多的文本通过嵌入,并添加到向量存储中。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, collection_name: Optional[str] = '', drop_old: Optional[bool] = False, **kwargs: Any) List[str][source]

将文本嵌入并将其添加到数据库中。

参数:

texts(Iterable[str]):要嵌入的文本。 metadatas(Optional[List[dict]]):附加到每个文本的元数据字典。默认为None。 collection_name(Optional[str]):要使用的集合名称。默认为“langchain_collection”。

如果提供,将设置默认集合名称。

drop_old(Optional[bool]):是否删除先前的集合并创建新集合。默认为False。

返回:

添加的文本的id列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • collection_name (Optional[str]) –

  • drop_old (Optional[bool]) –

  • kwargs (Any) –

Return type

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST

返回从文本和嵌入初始化的VectorStore。

Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

Return type

VST

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此VectorStore初始化的VectorStoreRetriever。

参数:
search_type(可选[str]):定义Retriever应执行的搜索类型。

可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。

search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:

k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选

返回:

VectorStoreRetriever:VectorStore的Retriever类。

示例:

# 检索更多具有更高多样性的文档
# 如果数据集中有许多相似的文档,则很有用
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# 为MMR算法考虑更多文档
# 但只返回前5个
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# 仅检索具有特定阈值以上相关性分数的文档
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# 仅从数据集中获取最相似的单个文档
docsearch.as_retriever(search_kwargs={'k': 1})

# 使用筛选器仅从特定论文中检索文档
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
Parameters

kwargs (Any) –

Return type

VectorStoreRetriever

async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询最相似的文档。

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性分数在范围[0, 1]内,异步执行。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似度分数)的列表

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

使用异步方式运行相似性搜索与距离。

Parameters
  • args (Any) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

clear_data(collection_name: str = '') None[source]

清除集合中的数据。

参数:
collection_name(可选[str]):集合的名称。

如果未提供,则将使用默认集合。

Parameters

collection_name (str) –

Return type

None

delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

classmethod from_documents(documents: List[Document], embedding: Embeddings, client: Any = None, db_path: Optional[str] = '/tmp/langchain-epsilla', db_name: Optional[str] = 'langchain_store', collection_name: Optional[str] = 'langchain_collection', drop_old: Optional[bool] = False, **kwargs: Any) Epsilla[source]

从文档列表创建一个Epsilla向量存储。

参数:

texts (List[str]): 要插入的文本数据列表。 embeddings (Embeddings): 嵌入函数。 client (pyepsilla.vectordb.Client): 用于连接的Epsilla客户端。 metadatas (Optional[List[dict]]): 每个文本的元数据。

默认为None。

db_path (Optional[str]): 数据库将持久化的路径。

默认为”/tmp/langchain-epsilla”。

db_name (Optional[str]): 给加载的数据库命名。

默认为”langchain_store”。

collection_name (Optional[str]): 要使用的集合。

默认为”langchain_collection”。 如果提供,将设置默认集合名称。

drop_old (Optional[bool]): 是否删除先前的集合并创建新集合。

默认为False。

返回:

Epsilla: Epsilla向量存储。

Parameters
  • documents (List[Document]) –

  • embedding (Embeddings) –

  • client (Any) –

  • db_path (Optional[str]) –

  • db_name (Optional[str]) –

  • collection_name (Optional[str]) –

  • drop_old (Optional[bool]) –

  • kwargs (Any) –

Return type

Epsilla

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, client: Any = None, db_path: Optional[str] = '/tmp/langchain-epsilla', db_name: Optional[str] = 'langchain_store', collection_name: Optional[str] = 'langchain_collection', drop_old: Optional[bool] = False, **kwargs: Any) Epsilla[source]

从原始文档创建一个Epsilla向量存储。

参数:

texts(List[str]):要插入的文本数据列表。 embeddings(Embeddings):嵌入函数。 client(pyepsilla.vectordb.Client):用于连接的Epsilla客户端。 metadatas(Optional[List[dict]]):每个文本的元数据。

默认为None。

db_path(Optional[str]):数据库将持久化的路径。

默认为”/tmp/langchain-epsilla”。

db_name(Optional[str]):为加载的数据库命名。

默认为”langchain_store”。

collection_name(Optional[str]):要使用的集合。

默认为”langchain_collection”。 如果提供,还将设置默认集合名称。

drop_old(Optional[bool]):是否删除先前的集合

并创建一个新的。默认为False。

返回:

Epsilla:Epsilla向量存储。

Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • client (Any) –

  • db_path (Optional[str]) –

  • db_name (Optional[str]) –

  • collection_name (Optional[str]) –

  • drop_old (Optional[bool]) –

  • kwargs (Any) –

Return type

Epsilla

get(collection_name: str = '', response_fields: Optional[List[str]] = None) List[dict][source]

获取集合。

参数:
collection_name(可选[str]):要从中检索数据的集合名称。

如果未提供,则将使用默认集合。

response_fields(可选[List[str]):结果中字段名称的列表。

如果未指定,将响应所有可用字段。

返回:

检索到的数据列表。

Parameters
  • collection_name (str) –

  • response_fields (Optional[List[str]]) –

Return type

List[dict]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • kwargs (Any) –

Return type

List[Document]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

返回与查询语义最相关的文档。

参数:

query(str):用于查询向量存储的字符串。 k(可选[int]):要返回的文档数量。默认为4。 collection_name(可选[str]):要使用的集合。默认为“langchain_store”或之前提供的集合。

返回:

与查询语义最相关的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • collection_name (str) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

参数:

embedding:要查找与之相似的文档的嵌入。 k:要返回的文档数量。默认为4。

返回:

与查询向量最相似的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性得分在[0, 1]范围内。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似性得分)

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

使用距离进行相似性搜索。

Parameters
  • args (Any) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

use_collection(collection_name: str) None[source]

设置默认使用的集合。

参数:

collection_name (str): 集合的名称。

Parameters

collection_name (str) –

Return type

None

Examples using Epsilla