Pinecone向量存储#

class langchain_pinecone.vectorstores.PineconeVectorStore(index: Any | None = None, embedding: Embeddings | None = None, text_key: str | None = 'text', namespace: str | None = None, distance_strategy: DistanceStrategy | None = DistanceStrategy.COSINE, *, pinecone_api_key: str | None = None, index_name: str | None = None)[来源]#

Pinecone 向量存储集成。

Setup:

安装 langchain-pinecone 并设置环境变量 PINECONE_API_KEY

pip install -qU langchain-pinecone
export PINECONE_API_KEY = "your-pinecone-api-key"
Key init args — indexing params:
embedding: Embeddings

使用的嵌入函数。

Key init args — client params:
index: Optional[Index]

使用的索引。

# TODO: 替换为相关的初始化参数。 实例化:

import time
import os
from pinecone import Pinecone, ServerlessSpec
from langchain_pinecone import PineconeVectorStore
from langchain_openai import OpenAIEmbeddings

pc = Pinecone(api_key=os.environ.get("PINECONE_API_KEY"))

index_name = "langchain-test-index"  # change if desired

existing_indexes = [index_info["name"] for index_info in pc.list_indexes()]

if index_name not in existing_indexes:
    pc.create_index(
        name=index_name,
        dimension=1536,
        metric="cosine",
        spec=ServerlessSpec(cloud="aws", region="us-east-1"),
        deletion_protection="enabled",  # Defaults to "disabled"
    )
    while not pc.describe_index(index_name).status["ready"]:
        time.sleep(1)

index = pc.Index(index_name)
vector_store = PineconeVectorStore(index=index, embedding=OpenAIEmbeddings())
Add Documents:
from langchain_core.documents import Document

document_1 = Document(page_content="foo", metadata={"baz": "bar"})
document_2 = Document(page_content="thud", metadata={"bar": "baz"})
document_3 = Document(page_content="i will be deleted :(")

documents = [document_1, document_2, document_3]
ids = ["1", "2", "3"]
vector_store.add_documents(documents=documents, ids=ids)
Delete Documents:
vector_store.delete(ids=["3"])
Search:
results = vector_store.similarity_search(query="thud",k=1)
for doc in results:
    print(f"* {doc.page_content} [{doc.metadata}]")
* thud [{'bar': 'baz'}]
Search with filter:
results = vector_store.similarity_search(query="thud",k=1,filter={"bar": "baz"})
for doc in results:
    print(f"* {doc.page_content} [{doc.metadata}]")
* thud [{'bar': 'baz'}]
Search with score:
results = vector_store.similarity_search_with_score(query="qux",k=1)
for doc, score in results:
    print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.832268] foo [{'baz': 'bar'}]
Async:
# add documents
# await vector_store.aadd_documents(documents=documents, ids=ids)

# delete documents
# await vector_store.adelete(ids=["3"])

# search
# results = vector_store.asimilarity_search(query="thud",k=1)

# search with score
results = await vector_store.asimilarity_search_with_score(query="qux",k=1)
for doc,score in results:
    print(f"* [SIM={score:3f}] {doc.page_content} [{doc.metadata}]")
* [SIM=0.832268] foo [{'baz': 'bar'}]
Use as Retriever:
retriever = vector_store.as_retriever(
    search_type="mmr",
    search_kwargs={"k": 1, "fetch_k": 2, "lambda_mult": 0.5},
)
retriever.invoke("thud")
[Document(metadata={'bar': 'baz'}, page_content='thud')]

属性

embeddings

如果可用,访问查询嵌入对象。

方法

__init__([index, embedding, text_key, ...])

aadd_documents(documents, **kwargs)

异步运行更多文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas, ids])

异步运行更多文本通过嵌入并添加到向量存储中。

add_documents(documents, **kwargs)

在向量存储中添加或更新文档。

add_texts(texts[, metadatas, ids, ...])

通过嵌入运行更多文本并将其添加到向量存储中。

adelete([ids])

异步删除通过向量ID或其他条件。

afrom_documents(documents, embedding, **kwargs)

异步返回从文档和嵌入初始化的VectorStore。

afrom_texts(texts, embedding[, metadatas, ids])

异步返回从文本和嵌入初始化的VectorStore。

aget_by_ids(ids, /)

通过ID异步获取文档。

amax_marginal_relevance_search(query[, k, ...])

异步返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

异步返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此 VectorStore 初始化的 VectorStoreRetriever。

asearch(query, search_type, **kwargs)

异步返回与查询最相似的文档,使用指定的搜索类型。

asimilarity_search(query[, k])

异步返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

异步返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

异步返回文档和相关分数,范围在[0, 1]之间。

asimilarity_search_with_score(*args, **kwargs)

异步运行带距离的相似性搜索。

delete([ids, delete_all, namespace, filter])

通过向量ID或过滤器删除。

from_documents(documents, embedding, **kwargs)

返回从文档和嵌入初始化的VectorStore。

from_existing_index(index_name, embedding[, ...])

从索引名称加载pinecone向量存储。

from_texts(texts, embedding[, metadatas, ...])

从原始文档构建Pinecone包装器。

get_by_ids(ids, /)

通过ID获取文档。

get_pinecone_index(index_name[, ...])

返回一个Pinecone索引实例。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

search(query, search_type, **kwargs)

使用指定的搜索类型返回与查询最相似的文档。

similarity_search(query[, k, filter, namespace])

返回与查询最相似的pinecone文档。

similarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

similarity_search_by_vector_with_score(...)

返回与嵌入最相似的pinecone文档,以及分数。

similarity_search_with_relevance_scores(query)

返回文档和相关度分数,范围在[0, 1]之间。

similarity_search_with_score(query[, k, ...])

返回与查询最相似的pinecone文档及其分数。

Parameters:
  • index (可选[任意类型])

  • embedding (可选[Embeddings])

  • text_key (可选[str])

  • namespace (可选[str])

  • distance_strategy (可选[DistanceStrategy])

  • pinecone_api_key (可选[str])

  • index_name (可选[str])

__init__(index: Any | None = None, embedding: Embeddings | None = None, text_key: str | None = 'text', namespace: str | None = None, distance_strategy: DistanceStrategy | None = DistanceStrategy.COSINE, *, pinecone_api_key: str | None = None, index_name: str | None = None)[source]#
Parameters:
  • index (任意 | )

  • embedding (Embeddings | None)

  • text_key (str | None)

  • 命名空间 (字符串 | )

  • distance_strategy (DistanceStrategy | None)

  • pinecone_api_key (str | None)

  • index_name (str | None)

async aadd_documents(documents: list[Document], **kwargs: Any) list[str]#

通过嵌入异步运行更多文档并将其添加到向量存储中。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档。

  • kwargs (Any) – 额外的关键字参数。

Returns:

已添加文本的ID列表。

Raises:

ValueError – 如果ID的数量与文档的数量不匹配。

Return type:

列表[字符串]

async aadd_texts(texts: Iterable[str], metadatas: list[dict] | None = None, *, ids: list[str] | None = None, **kwargs: Any) list[str]#

异步运行更多文本通过嵌入并添加到向量存储中。

Parameters:
  • texts (Iterable[str]) – 要添加到向量存储中的字符串的可迭代对象。

  • metadatas (list[dict] | None) – 可选的与文本关联的元数据列表。默认值为 None。

  • ids (list[str] | None) – 可选的列表

  • **kwargs (Any) – 向量存储特定参数。

Returns:

将文本添加到向量存储中后的ID列表。

Raises:
  • ValueError – 如果元数据的数量与文本的数量不匹配。

  • ValueError – 如果id的数量与文本的数量不匹配。

Return type:

列表[字符串]

add_documents(documents: list[Document], **kwargs: Any) list[str]#

在向量存储中添加或更新文档。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档。

  • kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。

Returns:

已添加文本的ID列表。

Raises:

ValueError – 如果id的数量与文档的数量不匹配。

Return type:

列表[字符串]

add_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, namespace: str | None = None, batch_size: int = 32, embedding_chunk_size: int = 1000, *, async_req: bool = True, id_prefix: str | None = None, **kwargs: Any) List[str][source]#

通过嵌入运行更多文本并添加到向量存储中。

Upsert优化是通过将嵌入分块并进行upsert操作来完成的。这样做是为了避免内存问题,并优化使用基于HTTP的嵌入。对于OpenAI嵌入,在构建pinecone.Index时使用pool_threads>4,embedding_chunk_size>1000和batch_size~64以获得最佳性能。 :param texts: 要添加到向量存储的字符串的可迭代对象。 :param metadatas: 与文本关联的可选元数据列表。 :param ids: 与文本关联的可选ID列表。 :param namespace: 要添加文本的可选pinecone命名空间。 :param batch_size: 将文本添加到向量存储时使用的批量大小。 :param embedding_chunk_size: 嵌入文本时使用的块大小。 :param async_req: 是否异步运行。 :param id_prefix: 在upsert向量时用作ID前缀的可选字符串。

Returns:

将文本添加到向量存储中后的ID列表。

Parameters:
  • texts (可迭代对象[字符串])

  • metadatas (列表[字典] | )

  • ids (列表[字符串] | )

  • 命名空间 (字符串 | )

  • batch_size (int)

  • embedding_chunk_size (int)

  • async_req (bool)

  • id_prefix (str | None)

  • kwargs (Any)

Return type:

列表[str]

async adelete(ids: list[str] | None = None, **kwargs: Any) bool | None#

通过向量ID或其他条件异步删除。

Parameters:
  • ids (list[str] | None) – 要删除的id列表。如果为None,则删除所有。默认值为None。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

Returns:

如果删除成功则为真, 否则为假,如果未实现则为无。

Return type:

可选[布尔]

async classmethod afrom_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST#

异步返回从文档和嵌入初始化的VectorStore。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档列表。

  • embedding (Embeddings) – 使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

Returns:

从文档和嵌入初始化的VectorStore。

Return type:

VectorStore

async classmethod afrom_texts(texts: list[str], embedding: Embeddings, metadatas: list[dict] | None = None, *, ids: list[str] | None = None, **kwargs: Any) VST#

异步返回从文本和嵌入初始化的VectorStore。

Parameters:
  • texts (list[str]) – 要添加到向量存储中的文本。

  • embedding (Embeddings) – 使用的嵌入函数。

  • metadatas (list[dict] | None) – 可选的与文本关联的元数据列表。默认值为 None。

  • ids (list[str] | None) – 可选的与文本关联的ID列表。

  • kwargs (Any) – 额外的关键字参数。

Returns:

VectorStore 从文本和嵌入初始化。

Return type:

VectorStore

async aget_by_ids(ids: Sequence[str], /) list[Document]#

通过ID异步获取文档。

返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。

如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。

用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。

如果没有找到某些ID的文档,此方法不应引发异常。

Parameters:

ids (Sequence[str]) – 要检索的ID列表。

Returns:

文档列表。

Return type:

列表[Document]

在版本0.2.11中添加。

异步返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 返回的文档数量。默认为4。

  • fetch_k (int) – 要传递给MMR算法的文档数量。 默认值为20。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[Document]

async amax_marginal_relevance_search_by_vector(embedding: list[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) list[Document]#

异步返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • embedding (list[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • fetch_k (int) – 要传递给MMR算法的文档数量。 默认值为20。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever#

返回从此VectorStore初始化的VectorStoreRetriever。

Parameters:

**kwargs (Any) –

传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。

检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。

search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
可以包括以下内容:

k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值

用于similarity_score_threshold

fetch_k: 传递给MMR算法的文档数量

(默认:20)

lambda_mult: MMR返回结果的多样性;

1表示最小多样性,0表示最大多样性。(默认:0.5)

filter: 按文档元数据过滤

Returns:

VectorStore的检索器类。

Return type:

VectorStoreRetriever

示例:

# Retrieve more documents with higher diversity
# Useful if your dataset has many similar documents
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# Fetch more documents for the MMR algorithm to consider
# But only return the top 5
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# Only retrieve documents that have a relevance score
# Above a certain threshold
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# Only get the single most similar document from the dataset
docsearch.as_retriever(search_kwargs={'k': 1})

# Use a filter to only retrieve documents from a specific paper
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
async asearch(query: str, search_type: str, **kwargs: Any) list[Document]#

异步返回与查询最相似的文档,使用指定的搜索类型。

Parameters:
  • query (str) – 输入文本。

  • search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询最相似的文档列表。

Raises:

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

Return type:

列表[Document]

异步返回与查询最相似的文档。

Parameters:
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询最相似的文档列表。

Return type:

列表[Document]

async asimilarity_search_by_vector(embedding: list[float], k: int = 4, **kwargs: Any) list[Document]#

异步返回与嵌入向量最相似的文档。

Parameters:
  • embedding (list[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询向量最相似的文档列表。

Return type:

列表[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]]#

异步返回文档和相关度分数,范围在[0, 1]之间。

0 表示不相似,1 表示最相似。

Parameters:
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) –

    传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值

    过滤检索到的文档集

Returns:

(文档,相似度分数)的元组列表

Return type:

列表[元组[Document, 浮点数]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) list[tuple[Document, float]]#

异步运行带有距离的相似性搜索。

Parameters:
  • *args (Any) – 传递给搜索方法的参数。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

(文档, 相似度分数) 的元组列表。

Return type:

列表[元组[Document, 浮点数]]

delete(ids: List[str] | None = None, delete_all: bool | None = None, namespace: str | None = None, filter: dict | None = None, **kwargs: Any) None[source]#

按向量ID或过滤器删除。 :param ids: 要删除的ID列表。 :param delete_all: 是否删除索引中的所有向量。 :param filter: 用于过滤要删除的向量的条件字典。 :param namespace: 要搜索的命名空间。默认将在''命名空间中搜索。

Parameters:
  • ids (列表[字符串] | )

  • delete_all (bool | None)

  • 命名空间 (字符串 | )

  • filter (字典 | )

  • kwargs (Any)

Return type:

classmethod from_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST#

返回从文档和嵌入初始化的VectorStore。

Parameters:
  • documents (list[Document]) – 要添加到向量存储中的文档列表。

  • embedding (Embeddings) – 使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

Returns:

从文档和嵌入初始化的VectorStore。

Return type:

VectorStore

classmethod from_existing_index(index_name: str, embedding: Embeddings, text_key: str = 'text', namespace: str | None = None, pool_threads: int = 4) PineconeVectorStore[来源]#

从索引名称加载pinecone向量存储。

Parameters:
  • index_name (str)

  • embedding (Embeddings)

  • text_key (str)

  • 命名空间 (字符串 | )

  • pool_threads (int)

Return type:

PineconeVectorStore

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, batch_size: int = 32, text_key: str = 'text', namespace: str | None = None, index_name: str | None = None, upsert_kwargs: dict | None = None, pool_threads: int = 4, embeddings_chunk_size: int = 1000, async_req: bool = True, *, id_prefix: str | None = None, **kwargs: Any) PineconeVectorStore[source]#

从原始文档构建Pinecone包装器。

This is a user-friendly interface that:
  1. 嵌入文档。

  2. 将文档添加到提供的Pinecone索引中

这是快速入门的一种方式。

pool_threads 影响 upsert 操作的速度。

设置:将PINECONE_API_KEY环境变量设置为您的Pinecone API密钥。

示例

from langchain_pinecone import PineconeVectorStore, PineconeEmbeddings

embeddings = PineconeEmbeddings(model="multilingual-e5-large")

index_name = "my-index"
vectorstore = PineconeVectorStore.from_texts(
    texts,
    index_name=index_name,
    embedding=embedding,
    namespace=namespace,
)
Parameters:
  • 文本 (列表[字符串])

  • embedding (Embeddings)

  • metadatas (列表[字典] | )

  • ids (列表[字符串] | )

  • batch_size (int)

  • text_key (str)

  • 命名空间 (字符串 | )

  • index_name (str | None)

  • upsert_kwargs (dict | None)

  • pool_threads (int)

  • embeddings_chunk_size (int)

  • async_req (bool)

  • id_prefix (str | None)

  • kwargs (Any)

Return type:

PineconeVectorStore

get_by_ids(ids: Sequence[str], /) list[Document]#

通过ID获取文档。

返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。

如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。

用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。

如果没有找到某些ID的文档,此方法不应引发异常。

Parameters:

ids (Sequence[str]) – 要检索的ID列表。

Returns:

文档列表。

Return type:

列表[Document]

在版本0.2.11中添加。

classmethod get_pinecone_index(index_name: str | None, pool_threads: int = 4, *, pinecone_api_key: str | None = None) Index[来源]#

返回一个Pinecone索引实例。

Parameters:
  • index_name (可选[str]) – 要使用的索引名称。

  • pool_threads (int) – 用于索引更新的线程数。

  • pinecone_api_key (可选[str]) – Pinecone的api_key。

Returns:

Pinecone 索引实例。

Return type:

索引

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 返回的文档数量。默认为4。

  • fetch_k (int) – 要获取并传递给MMR算法的文档数量。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。

  • filter (dict | None) – 用于过滤元数据的参数字典

  • namespace (str | None) – 要搜索的命名空间。默认将在‘’命名空间中搜索。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[文档]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict | None = None, namespace: str | None = None, **kwargs: Any) List[Document][source]#

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性和所选文档之间的多样性。

Parameters:
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • fetch_k (int) – 要获取并传递给MMR算法的文档数量。

  • lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。

  • filter (dict | None) – 用于过滤元数据的参数字典

  • namespace (str | None) – 要搜索的命名空间。默认将在''命名空间中搜索。

  • kwargs (Any)

Returns:

通过最大边际相关性选择的文档列表。

Return type:

列表[文档]

search(query: str, search_type: str, **kwargs: Any) list[Document]#

使用指定的搜索类型返回与查询最相似的文档。

Parameters:
  • query (str) – 输入文本

  • search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询最相似的文档列表。

Raises:

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

Return type:

列表[Document]

返回与查询最相似的pinecone文档。

Parameters:
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 返回的文档数量。默认为4。

  • filter (dict | None) – 用于过滤元数据的参数字典

  • namespace (str | None) – 要搜索的命名空间。默认将在''命名空间中搜索。

  • kwargs (Any)

Returns:

与查询最相似的文档列表及每个文档的得分

Return type:

列表[文档]

similarity_search_by_vector(embedding: list[float], k: int = 4, **kwargs: Any) list[Document]#

返回与嵌入向量最相似的文档。

Parameters:
  • embedding (list[float]) – 用于查找相似文档的嵌入。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) – 传递给搜索方法的参数。

Returns:

与查询向量最相似的文档列表。

Return type:

列表[Document]

similarity_search_by_vector_with_score(embedding: List[float], *, k: int = 4, filter: dict | None = None, namespace: str | None = None) List[Tuple[Document, float]][来源]#

返回与嵌入最相似的pinecone文档,以及分数。

Parameters:
  • embedding (列表[浮点数])

  • k (整数)

  • filter (字典 | )

  • 命名空间 (字符串 | )

Return type:

列表[元组[文档, 浮点数]]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]]#

返回文档和相关度分数,范围在[0, 1]之间。

0 表示不相似,1 表示最相似。

Parameters:
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为4。

  • **kwargs (Any) –

    传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值

    用于过滤检索到的文档集。

Returns:

(文档, 相似度分数) 的元组列表。

Return type:

列表[元组[Document, 浮点数]]

similarity_search_with_score(query: str, k: int = 4, filter: dict | None = None, namespace: str | None = None) List[Tuple[Document, float]][source]#

返回与查询最相似的pinecone文档,以及分数。

Parameters:
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 返回的文档数量。默认为4。

  • filter (dict | None) – 用于过滤元数据的参数字典

  • namespace (str | None) – 要搜索的命名空间。默认将在‘’命名空间中搜索。

Returns:

与查询最相似的文档列表及每个文档的得分

Return type:

列表[元组[文档, 浮点数]]