langchain_community.vectorstores.faiss.FAISS

class langchain_community.vectorstores.faiss.FAISS(embedding_function: Union[Callable[[str], List[float]], Embeddings], index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]

Meta Faiss 向量存储。

要使用,必须安装``faiss`` python包。

示例:
from langchain_community.embeddings.openai import OpenAIEmbeddings
from langchain_community.vectorstores import FAISS

embeddings = OpenAIEmbeddings()
texts = ["FAISS is an important library", "LangChain supports FAISS"]
faiss = FAISS.from_texts(texts, embeddings)

使用必要的组件进行初始化。

Attributes

embeddings

如果可用,访问查询嵌入对象。

Methods

__init__(embedding_function, index, ...[, ...])

使用必要的组件进行初始化。

aadd_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas, ids])

运行更多文本通过嵌入并异步添加到向量存储器

add_documents(documents, **kwargs)

运行更多的文档通过嵌入并添加到向量存储中。

add_embeddings(text_embeddings[, metadatas, ids])

将给定的文本和嵌入添加到向量存储中。

add_texts(texts[, metadatas, ids])

运行更多文本通过嵌入并添加到向量存储。

adelete([ids])

根据向量ID或其他条件进行删除。

afrom_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

afrom_embeddings(text_embeddings, embedding)

从原始文档异步构建FAISS包装器。

afrom_texts(texts, embedding[, metadatas, ids])

从原始文档异步构建FAISS包装器。

amax_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性异步选择的文档。

amax_marginal_relevance_search_by_vector(...)

使用最大边际相关性异步返回所选文档。

amax_marginal_relevance_search_with_score_by_vector(...)

返回使用最大边际相关性异步选择的文档及其相似性分数。

as_retriever(**kwargs)

返回从此VectorStore初始化的VectorStoreRetriever。

asearch(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

asimilarity_search(query[, k, filter, fetch_k])

异步返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档,异步执行。

asimilarity_search_with_relevance_scores(query)

返回文档和相关性分数在范围[0, 1]内,异步执行。

asimilarity_search_with_score(query[, k, ...])

异步返回与查询最相似的文档。

asimilarity_search_with_score_by_vector(...)

异步返回与查询最相似的文档。

delete([ids])

根据ID删除。这些是向量存储中的ID。

deserialize_from_bytes(serialized, ...)

从字节中反序列化FAISS索引、文档存储和索引到文档存储ID。

from_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

from_embeddings(text_embeddings, embedding)

从原始文档构建FAISS包装器。

from_texts(texts, embedding[, metadatas, ids])

从原始文档构建FAISS包装器。

load_local(folder_path, embeddings[, ...])

从磁盘加载FAISS索引、文档存储和index_to_docstore_id。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_with_score_by_vector(...)

使用最大边际相关性返回选定的文档及其相似性分数。

merge_from(target)

将另一个FAISS对象与当前对象合并。

save_local(folder_path[, index_name])

将FAISS索引、文档存储和index_to_docstore_id保存到磁盘。

search(query, search_type, **kwargs)

返回使用指定搜索类型的查询最相似的文档。

serialize_to_bytes()

将FAISS索引、文档存储和索引到文档存储ID序列化为字节。

similarity_search(query[, k, filter, fetch_k])

返回与查询最相似的文档。

similarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和相关性得分在[0, 1]范围内。

similarity_search_with_score(query[, k, ...])

返回与查询最相似的文档。

similarity_search_with_score_by_vector(embedding)

返回与查询最相似的文档。

Parameters
  • embedding_function (Union[Callable[[str], List[float]], Embeddings]) –

  • index (Any) –

  • docstore (Docstore) –

  • index_to_docstore_id (Dict[int, str]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • normalize_L2 (bool) –

  • distance_strategy (DistanceStrategy) –

__init__(embedding_function: Union[Callable[[str], List[float]], Embeddings], index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]

使用必要的组件进行初始化。

Parameters
  • embedding_function (Union[Callable[[str], List[float]], Embeddings]) –

  • index (Any) –

  • docstore (Docstore) –

  • index_to_docstore_id (Dict[int, str]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • normalize_L2 (bool) –

  • distance_strategy (DistanceStrategy) –

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

运行更多文本通过嵌入并异步添加到向量存储器

参数:

texts: 要添加到向量存储器的字符串的可迭代对象。 metadatas: 与文本相关的元数据的可选列表。 ids: 唯一ID的可选列表。

返回:

将文本添加到向量存储器后的ID列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

运行更多的文档通过嵌入并添加到向量存储中。

参数:

documents (List[Document]): 要添加到向量存储中的文档。

返回:

List[str]: 添加的文本的ID列表。

Parameters
  • documents (List[Document]) –

  • kwargs (Any) –

Return type

List[str]

add_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

将给定的文本和嵌入添加到向量存储中。

参数:

text_embeddings:要添加到向量存储中的字符串和嵌入的可迭代对。 metadatas:与文本相关的元数据的可选列表。 ids:唯一ID的可选列表。

返回:

将文本添加到向量存储中后的ID列表。

Parameters
  • text_embeddings (Iterable[Tuple[str, List[float]]]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

运行更多文本通过嵌入并添加到向量存储。

参数:

texts:要添加到向量存储的字符串的可迭代对象。 metadatas:与文本相关的元数据的可选列表。 ids:唯一ID的可选列表。

返回:

将文本添加到向量存储中的ID列表。

Parameters
  • texts (Iterable[str]) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

根据向量ID或其他条件进行删除。

参数:

ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

async classmethod afrom_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[Iterable[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

从原始文档异步构建FAISS包装器。

Parameters
  • text_embeddings (Iterable[Tuple[str, List[float]]]) –

  • embedding (Embeddings) –

  • metadatas (Optional[Iterable[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

FAISS

async classmethod afrom_texts(texts: list[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

从原始文档异步构建FAISS包装器。

这是一个用户友好的接口,可以:
  1. 嵌入文档。

  2. 创建一个内存中的文档存储。

  3. 初始化FAISS数据库。

这旨在是一个快速入门的方式。

示例:
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
faiss = await FAISS.afrom_texts(texts, embeddings)
Parameters
  • texts (list[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

FAISS

返回使用最大边际相关性异步选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找相似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:在过滤(如果需要)传递给MMR算法之前要获取的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0表示最大多样性,1表示最小多样性。默认为0.5。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document][source]

使用最大边际相关性异步返回所选文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 要查找相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 在过滤到传递给MMR算法之前要获取的文档数量。 lambda_mult: 0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

Return type

List[Document]

async amax_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None) List[Tuple[Document, float]][source]

返回使用最大边际相关性异步选择的文档及其相似性分数。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 要查找相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 在过滤到传递给MMR算法之前要获取的文档数量。 lambda_mult: 0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

通过最大边际相关性选择的文档和相似性分数的列表,以及每个文档的分数。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

Return type

List[Tuple[Document, float]]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此VectorStore初始化的VectorStoreRetriever。

参数:
search_type(可选[str]):定义Retriever应执行的搜索类型。

可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。

search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:

k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选

返回:

VectorStoreRetriever:VectorStore的Retriever类。

示例:

# 检索更多具有更高多样性的文档
# 如果数据集中有许多相似的文档,则很有用
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# 为MMR算法考虑更多文档
# 但只返回前5个
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# 仅检索具有特定阈值以上相关性分数的文档
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# 仅从数据集中获取最相似的单个文档
docsearch.as_retriever(search_kwargs={'k': 1})

# 使用筛选器仅从特定论文中检索文档
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
Parameters

kwargs (Any) –

Return type

VectorStoreRetriever

async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

异步返回与查询最相似的文档。

参数:

query: 要查找与之相似文档的文本。 k: 要返回的文档数量。默认为4。 filter: (可选[Dict[str, str]]):按元数据筛选。默认为None。 fetch_k: (可选[int])在过滤之前要获取的文档数量。

默认为20。

返回:

与查询最相似的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Document][source]

返回与嵌入向量最相似的文档,异步执行。

参数:

embedding: 要查找相似文档的嵌入向量。 k: 要返回的文档数量。默认为4。 filter(可选[Dict[str, str]]):按元数据过滤。

默认为None。如果是可调用对象,则必须以Document的元数据字典作为输入,并返回一个布尔值。

fetch_k: (可选[int])在过滤之前要获取的文档数量。

默认为20。

返回:

与嵌入向量最相似的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性分数在范围[0, 1]内,异步执行。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似度分数)的列表

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

异步返回与查询最相似的文档。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter(可选[Dict[str,str]]):按元数据过滤。

默认为None。如果是可调用对象,则必须以Document的元数据字典作为输入,并返回一个布尔值。

fetch_k:(可选[int])在过滤之前要获取的文档数量。

默认为20。

返回:

与查询文本最相似的文档列表,其中包含浮点型的L2距离。较低的分数表示更相似。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

异步返回与查询最相似的文档。

参数:

embedding: 要查找与之相似文档的嵌入向量。 k: 要返回的文档数量。默认为4。 filter (Optional[Dict[str, Any]]): 按元数据过滤。

默认为None。如果是可调用对象,则必须以Document的元数据字典作为输入并返回一个布尔值。

fetch_k: (Optional[int]) 过滤前要获取的文档数量。

默认为20。

**kwargs: 要传递给相似性搜索的kwargs。可以包括:
score_threshold: 可选,介于0到1之间的浮点值,

用于过滤检索到的文档集合

返回:

查询文本最相似的文档列表,以及每个文档的L2距离 以浮点数表示。较低的分数表示更相似。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool][source]

根据ID删除。这些是向量存储中的ID。

参数:

ids:要删除的ID列表。

返回:

Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。

Parameters
  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

Optional[bool]

classmethod deserialize_from_bytes(serialized: bytes, embeddings: Embeddings, **kwargs: Any) FAISS[source]

从字节中反序列化FAISS索引、文档存储和索引到文档存储ID。

Parameters
  • serialized (bytes) –

  • embeddings (Embeddings) –

  • kwargs (Any) –

Return type

FAISS

classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入初始化的VectorStore。

Parameters
Return type

VST

classmethod from_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[Iterable[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

从原始文档构建FAISS包装器。

这是一个用户友好的接口,可以:
  1. 嵌入文档。

  2. 创建一个内存中的文档存储。

  3. 初始化FAISS数据库。

这旨在是一个快速入门的方式。

示例:
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
text_embeddings = embeddings.embed_documents(texts)
text_embedding_pairs = zip(texts, text_embeddings)
faiss = FAISS.from_embeddings(text_embedding_pairs, embeddings)
Parameters
  • text_embeddings (Iterable[Tuple[str, List[float]]]) –

  • embedding (Embeddings) –

  • metadatas (Optional[Iterable[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

FAISS

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

从原始文档构建FAISS包装器。

这是一个用户友好的接口,可以:
  1. 嵌入文档。

  2. 创建一个内存中的文档存储。

  3. 初始化FAISS数据库。

这旨在是一个快速入门的方式。

示例:
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
faiss = FAISS.from_texts(texts, embeddings)
Parameters
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

Return type

FAISS

classmethod load_local(folder_path: str, embeddings: Embeddings, index_name: str = 'index', *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS[source]

从磁盘加载FAISS索引、文档存储和index_to_docstore_id。

参数:

folder_path:从中加载索引、文档存储和index_to_docstore_id的文件夹路径。 embeddings:生成查询时要使用的嵌入。 index_name:用于保存具有特定索引文件名的索引。 allow_dangerous_deserialization:是否允许反序列化涉及加载pickle文件的数据。

pickle文件可以被恶意用户修改,以传递恶意有效负载,导致在您的计算机上执行任意代码。

asynchronous:是否使用异步版本。

Parameters
  • folder_path (str) –

  • embeddings (Embeddings) –

  • index_name (str) –

  • allow_dangerous_deserialization (bool) –

  • kwargs (Any) –

Return type

FAISS

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:在过滤(如果需要)传递给MMR算法之前要获取的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。

返回:

通过最大边际相关性选择的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding: 要查找相似文档的嵌入。 k: 要返回的文档数量。默认为4。 fetch_k: 在过滤到传递给MMR算法之前要获取的文档数量。 lambda_mult: 介于0和1之间的数字,确定结果之间多样性的程度,其中0对应于最大多样性,1对应于最小多样性。默认为0.5。

返回:

由最大边际相关性选择的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

Return type

List[Document]

max_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None) List[Tuple[Document, float]][source]

使用最大边际相关性返回选定的文档及其相似性分数。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

参数:

embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 fetch_k:在过滤到传递给MMR算法之前要获取的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,其中0对应于最大多样性,1对应于最小多样性。默认为0.5。

返回:

通过最大边际相关性选择的文档和相似性分数的列表,以及每个文档的分数。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

Return type

List[Tuple[Document, float]]

merge_from(target: FAISS) None[source]

将另一个FAISS对象与当前对象合并。

将目标FAISS添加到当前对象中。

参数:

target: 您希望合并到当前对象中的FAISS对象

返回:

无。

Parameters

target (FAISS) –

Return type

None

save_local(folder_path: str, index_name: str = 'index') None[source]

将FAISS索引、文档存储和index_to_docstore_id保存到磁盘。

参数:

folder_path:保存索引、文档存储和index_to_docstore_id的文件夹路径。 index_name:用于保存具有特定索引文件名的内容。

Parameters
  • folder_path (str) –

  • index_name (str) –

Return type

None

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型的查询最相似的文档。

Parameters
  • query (str) –

  • search_type (str) –

  • kwargs (Any) –

Return type

List[Document]

serialize_to_bytes() bytes[source]

将FAISS索引、文档存储和索引到文档存储ID序列化为字节。

Return type

bytes

返回与查询最相似的文档。

参数:

query: 要查找相似文档的文本。 k: 要返回的文档数量。默认为4。 filter: (可选[Dict[str, str]]):按元数据筛选。默认为None。 fetch_k: (可选[int])在过滤之前要获取的文档数量。

默认为20。

返回:

与查询最相似的文档列表。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Document][source]

返回与嵌入向量最相似的文档。

参数:

embedding: 要查找与之相似的文档的嵌入。 k: 要返回的文档数量。默认为4。 filter(可选[Dict[str, str]]):按元数据进行过滤。

默认为None。如果是可调用对象,则必须以Document的元数据字典作为输入,并返回一个布尔值。

fetch_k: (可选[int])在过滤之前要获取的文档数量。

默认为20。

返回:

与嵌入最相似的文档列表。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[Dict[str, Any]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性得分在[0, 1]范围内。

0表示不相似,1表示最相似。

参数:

query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:

score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集

返回:

元组列表(doc,相似性得分)

Parameters
  • query (str) –

  • k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

返回与查询最相似的文档。

参数:

query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter(可选[Dict[str,str]]):按元数据过滤。

默认为None。如果是可调用对象,则必须以Document的元数据字典作为输入,并返回一个布尔值。

fetch_k:(可选[int])在过滤之前要获取的文档数量。

默认为20。

返回:

与查询文本最相似的文档列表,其中包含浮点型的L2距离。较低的分数表示更相似。

Parameters
  • query (str) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

返回与查询最相似的文档。

参数:

embedding: 要查找与之相似文档的嵌入向量。 k: 要返回的文档数量。默认为4。 filter (Optional[Union[Callable, Dict[str, Any]]]): 根据元数据进行过滤。

默认为None。如果是可调用对象,则必须以Document的元数据字典作为输入,并返回一个布尔值。

fetch_k: (Optional[int]) 过滤之前要获取的文档数量。

默认为20。

**kwargs: 要传递给相似性搜索的关键字参数。可以包括:
score_threshold: 可选的,一个介于0到1之间的浮点值,

用于过滤检索到的文档集合

返回:

与查询文本最相似的文档列表,以及每个文档的浮点型L2距离。较低的分数表示更相似。

Parameters
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • fetch_k (int) –

  • kwargs (Any) –

Return type

List[Tuple[Document, float]]

Examples using FAISS