FAISS#
- class langchain_community.vectorstores.faiss.FAISS(embedding_function: Callable[[str], List[float]] | Embeddings, index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Callable[[float], float] | None = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[来源]#
FAISS向量存储集成。
参见 [FAISS 库](https://arxiv.org/pdf/2401.08281) 论文。
- Setup:
安装
langchain_community
和faiss-cpu
Python 包。pip install -qU langchain_community faiss-cpu
- Key init args — indexing params:
- embedding_function: Embeddings
使用的嵌入函数。
- Key init args — client params:
- index: Any
使用的FAISS索引。
- docstore: Docstore
使用的文档存储。
- index_to_docstore_id: Dict[int, str]
索引到文档存储ID的映射。
- Instantiate:
import faiss from langchain_community.vectorstores import FAISS from langchain_community.docstore.in_memory import InMemoryDocstore from langchain_openai import OpenAIEmbeddings index = faiss.IndexFlatL2(len(OpenAIEmbeddings().embed_query("hello world"))) vector_store = FAISS( embedding_function=OpenAIEmbeddings(), index=index, docstore= InMemoryDocstore(), index_to_docstore_id={} )
- Add Documents:
from langchain_core.documents import Document document_1 = Document(page_content="foo", metadata={"baz": "bar"}) document_2 = Document(page_content="thud", metadata={"bar": "baz"}) document_3 = Document(page_content="i will be deleted :(") documents = [document_1, document_2, document_3] ids = ["1", "2", "3"] vector_store.add_documents(documents=documents, ids=ids)
- Delete Documents:
vector_store.delete(ids=["3"])
- Search:
results = vector_store.similarity_search(query="thud",k=1) for doc in results: print(f"* {doc.page_content} [{doc.metadata}]")
* thud [{'bar': 'baz'}]
- Search with filter:
results = vector_store.similarity_search(query="thud",k=1,filter={"bar": "baz"}) for doc in results: print(f"* {doc.page_content} [{doc.metadata}]")
* thud [{'bar': 'baz'}]
- Search with score:
results = vector_store.similarity_search_with_score(query="qux",k=1) for doc, score in results: print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.335304] foo [{'baz': 'bar'}]
- Async:
# add documents # await vector_store.aadd_documents(documents=documents, ids=ids) # delete documents # await vector_store.adelete(ids=["3"]) # search # results = vector_store.asimilarity_search(query="thud",k=1) # search with score results = await vector_store.asimilarity_search_with_score(query="qux",k=1) for doc,score in results: print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.335304] foo [{'baz': 'bar'}]
- Use as Retriever:
retriever = vector_store.as_retriever( search_type="mmr", search_kwargs={"k": 1, "fetch_k": 2, "lambda_mult": 0.5}, ) retriever.invoke("thud")
[Document(metadata={'bar': 'baz'}, page_content='thud')]
使用必要的组件进行初始化。
属性
embeddings
如果可用,访问查询嵌入对象。
方法
__init__
(embedding_function, index, ...[, ...])使用必要的组件进行初始化。
aadd_documents
(documents, **kwargs)异步运行更多文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas, ids])通过嵌入运行更多文本并将其添加到向量存储中
add_documents
(documents, **kwargs)在向量存储中添加或更新文档。
add_embeddings
(text_embeddings[, metadatas, ids])将给定的文本和嵌入添加到向量存储中。
add_texts
(texts[, metadatas, ids])通过嵌入运行更多文本并将其添加到向量存储中。
adelete
([ids])异步删除通过向量ID或其他条件。
afrom_documents
(documents, embedding, **kwargs)异步返回从文档和嵌入初始化的VectorStore。
afrom_embeddings
(text_embeddings, embedding)从原始文档异步构建FAISS包装器。
afrom_texts
(texts, embedding[, metadatas, ids])从原始文档异步构建FAISS包装器。
aget_by_ids
(ids, /)异步通过ID获取文档。
amax_marginal_relevance_search
(query[, k, ...])异步返回使用最大边际相关性选择的文档。
异步返回使用最大边际相关性选择的文档。
返回使用最大边际选择的文档及其相似度分数
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步返回与查询最相似的文档,使用指定的搜索类型。
asimilarity_search
(query[, k, filter, fetch_k])异步返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k, ...])异步返回与嵌入向量最相似的文档。
异步返回文档和相关分数,范围在[0, 1]之间。
asimilarity_search_with_score
(query[, k, ...])异步返回与查询最相似的文档。
异步返回与查询最相似的文档。
delete
([ids])按ID删除。
deserialize_from_bytes
(serialized, embeddings, *)从字节中反序列化FAISS索引、文档存储和index_to_docstore_id。
from_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
from_embeddings
(text_embeddings, embedding)从原始文档构建FAISS包装器。
from_texts
(texts, embedding[, metadatas, ids])从原始文档构建FAISS包装器。
get_by_ids
(ids, /)通过ID获取文档。
load_local
(folder_path, embeddings[, ...])从磁盘加载FAISS索引、文档存储和index_to_docstore_id。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
返回使用最大边际选择的文档及其相似度分数
merge_from
(target)将另一个FAISS对象与当前对象合并。
save_local
(folder_path[, index_name])将FAISS索引、文档存储和index_to_docstore_id保存到磁盘。
search
(query, search_type, **kwargs)使用指定的搜索类型返回与查询最相似的文档。
将FAISS索引、文档存储和index_to_docstore_id序列化为字节。
similarity_search
(query[, k, filter, fetch_k])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关度分数,分数范围在[0, 1]之间。
similarity_search_with_score
(query[, k, ...])返回与查询最相似的文档。
similarity_search_with_score_by_vector
(embedding)返回与查询最相似的文档。
- Parameters:
embedding_function (Union[Callable[[str], List[float]], Embeddings])
index (Any)
docstore (Docstore)
index_to_docstore_id (Dict[int, str])
relevance_score_fn (可选[Callable[[float], float]])
normalize_L2 (bool)
distance_strategy (DistanceStrategy)
- __init__(embedding_function: Callable[[str], List[float]] | Embeddings, index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Callable[[float], float] | None = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]#
使用必要的组件进行初始化。
- Parameters:
embedding_function (Callable[[str], List[float]] | Embeddings)
index (Any)
docstore (Docstore)
index_to_docstore_id (Dict[int, str])
relevance_score_fn (Callable[[float], float] | None)
normalize_L2 (bool)
distance_strategy (DistanceStrategy)
- async aadd_documents(documents: list[Document], **kwargs: Any) list[str] #
通过嵌入异步运行更多文档并将其添加到向量存储中。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果ID的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- async aadd_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [来源]#
- Run more texts through the embeddings and add to the vectorstore
异步地。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的字符串的可迭代对象。
metadatas (List[dict] | None) – 可选的与文本关联的元数据列表。
ids (List[str] | None) – 可选的唯一ID列表。
kwargs (Any)
- Returns:
将文本添加到向量存储中后的ID列表。
- Return type:
列表[str]
- add_documents(documents: list[Document], **kwargs: Any) list[str] #
在向量存储中添加或更新文档。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果id的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- add_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [source]#
将给定的文本和嵌入添加到向量存储中。
- Parameters:
text_embeddings (Iterable[Tuple[str, List[float]]]) – 可迭代的字符串和嵌入对,用于添加到向量存储中。
metadatas (List[dict] | None) – 可选的与文本关联的元数据列表。
ids (List[str] | None) – 可选的唯一ID列表。
kwargs (Any)
- Returns:
将文本添加到向量存储中后的ID列表。
- Return type:
列表[str]
- add_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) List[str] [source]#
通过嵌入运行更多文本并添加到向量存储中。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的字符串的可迭代对象。
metadatas (List[dict] | None) – 可选的与文本关联的元数据列表。
ids (List[str] | None) – 可选的唯一ID列表。
kwargs (Any)
- Returns:
将文本添加到向量存储中后的ID列表。
- Return type:
列表[str]
- async adelete(ids: list[str] | None = None, **kwargs: Any) bool | None #
通过向量ID或其他条件异步删除。
- Parameters:
ids (list[str] | None) – 要删除的id列表。如果为None,则删除所有。默认值为None。
**kwargs (Any) – 子类可能使用的其他关键字参数。
- Returns:
如果删除成功则为真, 否则为假,如果未实现则为无。
- Return type:
可选[布尔]
- async classmethod afrom_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST #
异步返回从文档和嵌入初始化的VectorStore。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档列表。
embedding (Embeddings) – 使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- Returns:
从文档和嵌入初始化的VectorStore。
- Return type:
- async classmethod afrom_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Iterable[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) FAISS [source]#
从原始文档异步构建FAISS包装器。
- Parameters:
text_embeddings (可迭代[元组[字符串, 列表[浮点数]]])
embedding (Embeddings)
metadatas (可迭代对象[字典] | 无)
ids (列表[字符串] | 无)
kwargs (Any)
- Return type:
- async classmethod afrom_texts(texts: list[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) FAISS [来源]#
从原始文档异步构建FAISS包装器。
- This is a user friendly interface that:
嵌入文档。
创建一个内存中的文档存储
初始化FAISS数据库
这是快速入门的一种方式。
示例
from langchain_community.vectorstores import FAISS from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() faiss = await FAISS.afrom_texts(texts, embeddings)
- Parameters:
文本 (列表[字符串])
embedding (Embeddings)
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
kwargs (Any)
- Return type:
- async aget_by_ids(ids: Sequence[str], /) list[Document] #
通过ID异步获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Callable | Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
异步返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 在过滤(如果需要)之前获取的文档数量,以便传递给MMR算法。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可调用 | 字典[字符串, 任意类型] | 无)
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Callable | Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
异步返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 在过滤之前要获取的文档数量,以便传递给MMR算法。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可调用 | 字典[字符串, 任意类型] | 无)
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- async amax_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Callable | Dict[str, Any] | None = None) List[Tuple[Document, float]] [来源]#
- Return docs and their similarity scores selected using the maximal marginal
异步相关性。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 在过滤之前要获取的文档数量,以便传递给MMR算法。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可调用 | 字典[字符串, 任意] | 无)
- Returns:
- 通过最大边际选择的文档列表和相似度分数
每个文档的相关性和分数。
- Return type:
列表[元组[文档, 浮点数]]
- as_retriever(**kwargs: Any) VectorStoreRetriever #
返回从此VectorStore初始化的VectorStoreRetriever。
- Parameters:
**kwargs (Any) –
传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
- search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
- 可以包括以下内容:
k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值
用于similarity_score_threshold
- fetch_k: 传递给MMR算法的文档数量
(默认:20)
- lambda_mult: MMR返回结果的多样性;
1表示最小多样性,0表示最大多样性。(默认:0.5)
filter: 按文档元数据过滤
- Returns:
VectorStore的检索器类。
- Return type:
示例:
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) list[Document] #
异步返回与查询最相似的文档,使用指定的搜索类型。
- Parameters:
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- async asimilarity_search(query: str, k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]#
异步返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (Callable | Dict[str, Any] | None) – (Optional[Dict[str, str]]): 按元数据过滤。默认为 None。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
kwargs (Any)
- Returns:
与查询最相似的文档列表。
- Return type:
列表[文档]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]#
异步返回与嵌入向量最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。 默认为 None。如果是一个可调用对象,它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
kwargs (Any)
- Returns:
与嵌入最相似的文档列表。
- Return type:
列表[文档]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
异步返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
(文档,相似度分数)的元组列表
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [来源]#
异步返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。 默认为 None。如果是一个可调用对象,它必须接受 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
kwargs (Any)
- Returns:
与查询文本最相似的文档列表,使用L2距离(浮点数)。分数越低表示相似度越高。
- Return type:
列表[元组[文档, 浮点数]]
- async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]#
异步返回与查询最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, Any]]) – 通过元数据进行过滤。 默认为 None。如果是一个可调用对象,它必须接受 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
**kwargs (Any) –
传递给相似性搜索的kwargs。可以包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
与查询文本最相似的文档列表以及每个文档的L2距离(浮点数)。分数越低表示相似度越高。
- Return type:
列表[元组[文档, 浮点数]]
- delete(ids: List[str] | None = None, **kwargs: Any) bool | None [source]#
按ID删除。这些是向量存储中的ID。
- Parameters:
ids (List[str] | None) – 要删除的ID列表。
kwargs (Any)
- Returns:
如果删除成功则为真, 否则为假,如果未实现则为无。
- Return type:
可选[布尔]
- classmethod deserialize_from_bytes(serialized: bytes, embeddings: Embeddings, *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS [source]#
从字节中反序列化FAISS索引、文档存储和index_to_docstore_id。
- Parameters:
serialized (字节)
embeddings (Embeddings)
allow_dangerous_deserialization (bool)
kwargs (Any)
- Return type:
- classmethod from_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST #
返回从文档和嵌入初始化的VectorStore。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档列表。
embedding (Embeddings) – 使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- Returns:
从文档和嵌入初始化的VectorStore。
- Return type:
- classmethod from_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Iterable[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) FAISS [source]#
从原始文档构建FAISS包装器。
- This is a user friendly interface that:
嵌入文档。
创建一个内存中的文档存储
初始化FAISS数据库
这是快速入门的一种方式。
示例
from langchain_community.vectorstores import FAISS from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() text_embeddings = embeddings.embed_documents(texts) text_embedding_pairs = zip(texts, text_embeddings) faiss = FAISS.from_embeddings(text_embedding_pairs, embeddings)
- Parameters:
text_embeddings (可迭代[元组[字符串, 列表[浮点数]]])
embedding (Embeddings)
metadatas (可迭代对象[字典] | 无)
ids (列表[字符串] | 无)
kwargs (Any)
- Return type:
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, **kwargs: Any) FAISS [source]#
从原始文档构建FAISS包装器。
- This is a user friendly interface that:
嵌入文档。
创建一个内存中的文档存储
初始化FAISS数据库
这是快速入门的一种方式。
示例
from langchain_community.vectorstores import FAISS from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() faiss = FAISS.from_texts(texts, embeddings)
- Parameters:
文本 (列表[字符串])
embedding (Embeddings)
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
kwargs (Any)
- Return type:
- get_by_ids(ids: Sequence[str], /) list[Document] [来源]#
通过ID获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- classmethod load_local(folder_path: str, embeddings: Embeddings, index_name: str = 'index', *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS [source]#
从磁盘加载FAISS索引、文档存储和index_to_docstore_id。
- Parameters:
folder_path (str) – 用于加载索引、文档存储和index_to_docstore_id的文件夹路径。
embeddings (Embeddings) – 生成查询时使用的嵌入
index_name (str) – 用于保存特定的索引文件名
allow_dangerous_deserialization (bool) – 是否允许反序列化涉及加载pickle文件的数据。Pickle文件可以被恶意行为者修改,以传递恶意负载,导致在您的机器上执行任意代码。
kwargs (Any)
- Return type:
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Callable | Dict[str, Any] | None = None, **kwargs: Any) List[Document] [来源]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 在过滤(如果需要)之前获取的文档数量,以便传递给MMR算法。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可调用 | 字典[字符串, 任意] | 无)
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Callable | Dict[str, Any] | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 在过滤之前要获取的文档数量,以便传递给MMR算法。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可调用 | 字典[字符串, 任意] | 无)
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- max_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Callable | Dict[str, Any] | None = None) List[Tuple[Document, float]] [来源]#
- Return docs and their similarity scores selected using the maximal marginal
相关性。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 在过滤之前要获取的文档数量,以便传递给MMR算法。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (可调用 | 字典[字符串, 任意] | 无)
- Returns:
- 通过最大边际选择的文档列表和相似度分数
每个文档的相关性和分数。
- Return type:
列表[元组[文档, 浮点数]]
- merge_from(target: FAISS) None [source]#
将另一个FAISS对象与当前对象合并。
将目标FAISS添加到当前的FAISS中。
- Parameters:
target (FAISS) – 你希望合并到当前对象的FAISS对象
- Returns:
无。
- Return type:
无
- save_local(folder_path: str, index_name: str = 'index') None [来源]#
将FAISS索引、文档存储和index_to_docstore_id保存到磁盘。
- Parameters:
folder_path (str) – 保存索引、文档存储和索引到文档存储ID的文件夹路径。
index_name (str) – 用于保存特定的索引文件名
- Return type:
无
- search(query: str, search_type: str, **kwargs: Any) list[Document] #
使用指定的搜索类型返回与查询最相似的文档。
- Parameters:
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- similarity_search(query: str, k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (Callable | Dict[str, Any] | None) – (Optional[Dict[str, str]]): 按元数据过滤。默认为 None。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
kwargs (Any)
- Returns:
与查询最相似的文档列表。
- Return type:
列表[文档]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]#
返回与嵌入向量最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。 默认为 None。如果是一个可调用对象,它必须接受 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
kwargs (Any)
- Returns:
与嵌入最相似的文档列表。
- Return type:
列表[文档]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
用于过滤检索到的文档集。
- Returns:
(文档, 相似度分数) 的元组列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score(query: str, k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]#
返回与查询最相似的文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (可选[Dict[str, str]]) – 通过元数据进行过滤。 默认为 None。如果是一个可调用对象,它必须接受 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
kwargs (Any)
- Returns:
与查询文本最相似的文档列表,使用L2距离(浮点数)。分数越低表示相似度越高。
- Return type:
列表[元组[文档, 浮点数]]
- similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Callable | Dict[str, Any] | None = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]#
返回与查询最相似的文档。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 返回的文档数量。默认为4。
filter (可选[Union[Callable, Dict[str, Any]]]) – 通过元数据进行过滤。 默认为 None。如果是一个可调用对象,它必须接受 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 在过滤之前要获取的文档数量。默认值为20。
**kwargs (Any) –
传递给相似性搜索的kwargs。可以包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
与查询文本最相似的文档列表以及每个文档的L2距离(浮点数)。分数越低表示相似度越高。
- Return type:
列表[元组[文档, 浮点数]]
使用FAISS的示例