langchain_community.vectorstores.scann
.ScaNN¶
- class langchain_community.vectorstores.scann.ScaNN(embedding: Embeddings, index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE, scann_config: Optional[str] = None)[source]¶
ScaNN 向量存储。
要使用,您应该已安装``scann`` python包。
- 示例:
from langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import ScaNN db = ScaNN.from_texts( ['foo', 'bar', 'barz', 'qux'], HuggingFaceEmbeddings()) db.similarity_search('foo?', k=1)
使用必要的组件进行初始化。
Attributes
embeddings
如果可用,访问查询嵌入对象。
Methods
__init__
(embedding, index, docstore, ...[, ...])使用必要的组件进行初始化。
aadd_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas])运行更多的文本通过嵌入,并添加到向量存储中。
add_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
add_embeddings
(text_embeddings[, metadatas, ids])运行更多文本通过嵌入并添加到向量存储。
add_texts
(texts[, metadatas, ids])运行更多文本通过嵌入并添加到向量存储。
adelete
([ids])根据向量ID或其他条件进行删除。
afrom_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas])返回从文本和嵌入初始化的VectorStore。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
asimilarity_search
(query[, k])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回文档和相关性分数在范围[0, 1]内,异步执行。
asimilarity_search_with_score
(*args, **kwargs)使用异步方式运行相似性搜索与距离。
delete
([ids])根据向量ID或其他条件删除。
from_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
from_embeddings
(text_embeddings, embedding)从原始文档构建ScaNN包装器。
from_texts
(texts, embedding[, metadatas, ids])从原始文档构建ScaNN包装器。
load_local
(folder_path, embedding[, ...])从磁盘加载ScaNN索引、文档存储和index_to_docstore_id。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
save_local
(folder_path[, index_name])将ScaNN索引、文档存储和索引到文档存储ID保存到磁盘。
search
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
similarity_search
(query[, k, filter, fetch_k])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关性得分在[0, 1]范围内。
similarity_search_with_score
(query[, k, ...])返回与查询最相似的文档。
similarity_search_with_score_by_vector
(embedding)返回与查询最相似的文档。
- Parameters
embedding (Embeddings) –
index (Any) –
docstore (Docstore) –
index_to_docstore_id (Dict[int, str]) –
relevance_score_fn (Optional[Callable[[float], float]]) –
normalize_L2 (bool) –
distance_strategy (DistanceStrategy) –
scann_config (Optional[str]) –
- __init__(embedding: Embeddings, index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE, scann_config: Optional[str] = None)[source]¶
使用必要的组件进行初始化。
- Parameters
embedding (Embeddings) –
index (Any) –
docstore (Docstore) –
index_to_docstore_id (Dict[int, str]) –
relevance_score_fn (Optional[Callable[[float], float]]) –
normalize_L2 (bool) –
distance_strategy (DistanceStrategy) –
scann_config (Optional[str]) –
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str] ¶
运行更多的文本通过嵌入,并添加到向量存储中。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- add_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str] [source]¶
运行更多文本通过嵌入并添加到向量存储。
- 参数:
text_embeddings:要添加到向量存储的字符串和嵌入的可迭代对。 metadatas:与文本相关的元数据的可选列表。 ids:唯一ID的可选列表。
- 返回:
将文本添加到向量存储后的ID列表。
- Parameters
text_embeddings (Iterable[Tuple[str, List[float]]]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str] [source]¶
运行更多文本通过嵌入并添加到向量存储。
- 参数:
texts:要添加到向量存储的字符串的可迭代对象。 metadatas:与文本相关的元数据的可选列表。 ids:唯一ID的可选列表。
- 返回:
将文本添加到向量存储中的ID列表。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
List[str]
- async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
根据向量ID或其他条件进行删除。
- 参数:
ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。
- 返回:
Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
Optional[bool]
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST ¶
返回从文本和嵌入初始化的VectorStore。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
VST
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从此VectorStore初始化的VectorStoreRetriever。
- 参数:
- search_type(可选[str]):定义Retriever应执行的搜索类型。
可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。
- search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:
k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选
- 返回:
VectorStoreRetriever:VectorStore的Retriever类。
示例:
# 检索更多具有更高多样性的文档 # 如果数据集中有许多相似的文档,则很有用 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # 为MMR算法考虑更多文档 # 但只返回前5个 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # 仅检索具有特定阈值以上相关性分数的文档 docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # 仅从数据集中获取最相似的单个文档 docsearch.as_retriever(search_kwargs={'k': 1}) # 使用筛选器仅从特定论文中检索文档 docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- Parameters
kwargs (Any) –
- Return type
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search(query: str, k: int = 4, **kwargs: Any) List[Document] ¶
返回与查询最相似的文档。
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- Parameters
embedding (List[float]) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性分数在范围[0, 1]内,异步执行。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似度分数)的列表
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
使用异步方式运行相似性搜索与距离。
- Parameters
args (Any) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] [source]¶
根据向量ID或其他条件删除。
- 参数:
ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。
- 返回:
Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
Optional[bool]
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- classmethod from_embeddings(text_embeddings: List[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) ScaNN [source]¶
从原始文档构建ScaNN包装器。
- 这是一个用户友好的接口,可以:
嵌入文档。
创建内存中的文档存储。
初始化ScaNN数据库。
这旨在是一个快速入门的方式。
- 示例:
from langchain_community.vectorstores import ScaNN from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() text_embeddings = embeddings.embed_documents(texts) text_embedding_pairs = list(zip(texts, text_embeddings)) scann = ScaNN.from_embeddings(text_embedding_pairs, embeddings)
- Parameters
text_embeddings (List[Tuple[str, List[float]]]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) ScaNN [source]¶
从原始文档构建ScaNN包装器。
- 这是一个用户友好的接口,可以:
嵌入文档。
创建内存中的文档存储。
初始化ScaNN数据库。
这旨在是一个快速入门的方式。
- 示例:
from langchain_community.vectorstores import ScaNN from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() scann = ScaNN.from_texts(texts, embeddings)
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
- classmethod load_local(folder_path: str, embedding: Embeddings, index_name: str = 'index', *, allow_dangerous_deserialization: bool = False, **kwargs: Any) ScaNN [source]¶
从磁盘加载ScaNN索引、文档存储和index_to_docstore_id。
- 参数:
folder_path: 从中加载索引、文档存储和index_to_docstore_id的文件夹路径。 embedding: 生成查询时要使用的嵌入。 index_name: 用于保存具有特定索引文件名的索引 allow_dangerous_deserialization: 是否允许反序列化涉及加载pickle文件的数据。
pickle文件可以被恶意用户修改,以传递恶意有效负载,导致在您的计算机上执行任意代码。
- Parameters
folder_path (str) –
embedding (Embeddings) –
index_name (str) –
allow_dangerous_deserialization (bool) –
kwargs (Any) –
- Return type
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- save_local(folder_path: str, index_name: str = 'index') None [source]¶
将ScaNN索引、文档存储和索引到文档存储ID保存到磁盘。
- 参数:
folder_path:保存索引、文档存储和索引到文档存储ID的文件夹路径。
- Parameters
folder_path (str) –
index_name (str) –
- Return type
None
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- 参数:
query: 要查找相似文档的文本。 k: 要返回的文档数量。默认为4。 filter: (可选[Dict[str, str]]):按元数据筛选。默认为None。 fetch_k: (可选[int])在过滤之前要获取的文档数量。
默认为20。
- 返回:
与查询最相似的文档列表。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
fetch_k (int) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数:
embedding: 要查找相似文档的嵌入。 k: 要返回的文档数量。默认为4。 filter(可选[Dict[str, str]]):按元数据过滤。默认为None。 fetch_k: (可选[int])在过滤之前要获取的文档数量。
默认为20。
- 返回:
与嵌入最相似的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
fetch_k (int) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性得分在[0, 1]范围内。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似性得分)
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter(可选[Dict[str,str]]):按元数据筛选。默认为无。 fetch_k:(可选[int])在过滤之前要获取的文档数量。
默认为20。
- 返回:
与查询文本最相似的文档列表,其中包含浮点型的L2距离。较低的分数表示更相似。
- Parameters
query (str) –
k (int) –
filter (Optional[Dict[str, Any]]) –
fetch_k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档。
- 参数:
embedding: 要查找与之相似文档的嵌入向量。 k: 要返回的文档数量。默认为4。 filter (Optional[Dict[str, Any]]): 按元数据过滤。默认为None。 fetch_k: (Optional[int]) 在过滤之前要获取的文档数量。
默认为20。
- **kwargs: 要传递给相似性搜索的kwargs。可以包括:
- score_threshold: 可选,0到1之间的浮点值,
用于过滤检索到的文档集合
- 返回:
查询文本最相似的文档列表,以及每个文档的L2距离 以浮点数表示。较低的分数表示更相似。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[Dict[str, Any]]) –
fetch_k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]