Pinecone#
- class langchain_community.vectorstores.pinecone.Pinecone(index: Any, embedding: Embeddings | Callable, text_key: str, namespace: str | None = None, distance_strategy: DistanceStrategy | None = DistanceStrategy.COSINE)[来源]#
自版本0.0.18起已弃用:请改用
:class:`~langchain_pinecone.Pinecone`
。在langchain-community==1.0之前不会移除。Pinecone 向量存储。
要使用,您应该安装
pinecone
python包。此版本的 Pinecone 已弃用。请改用 langchain_pinecone.Pinecone。
使用Pinecone客户端进行初始化。
属性
embeddings
如果可用,访问查询嵌入对象。
方法
__init__
(index, embedding, text_key[, ...])使用Pinecone客户端进行初始化。
aadd_documents
(documents, **kwargs)异步运行更多文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas, ids])异步运行更多文本通过嵌入并添加到向量存储中。
add_documents
(documents, **kwargs)在向量存储中添加或更新文档。
add_texts
(texts[, metadatas, ids, ...])通过嵌入运行更多文本并将其添加到向量存储中。
adelete
([ids])异步删除通过向量ID或其他条件。
afrom_documents
(documents, embedding, **kwargs)异步返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas, ids])异步返回从文本和嵌入初始化的VectorStore。
aget_by_ids
(ids, /)异步通过ID获取文档。
amax_marginal_relevance_search
(query[, k, ...])异步返回使用最大边际相关性选择的文档。
异步返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步返回与查询最相似的文档,使用指定的搜索类型。
asimilarity_search
(query[, k])异步返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k])异步返回与嵌入向量最相似的文档。
异步返回文档和相关分数,范围在[0, 1]之间。
asimilarity_search_with_score
(*args, **kwargs)异步运行带距离的相似性搜索。
delete
([ids, delete_all, namespace, filter])通过向量ID或过滤器删除。
from_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
from_existing_index
(index_name, embedding[, ...])从索引名称加载pinecone向量存储。
from_texts
(texts, embedding[, metadatas, ...])已弃用:请改用 langchain_pinecone.PineconeVectorStore.from_texts:从原始文档构建 Pinecone 包装器。
get_by_ids
(ids, /)通过ID获取文档。
get_pinecone_index
(index_name[, pool_threads])返回一个Pinecone索引实例。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
search
(query, search_type, **kwargs)使用指定的搜索类型返回与查询最相似的文档。
similarity_search
(query[, k, filter, namespace])返回与查询最相似的pinecone文档。
similarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回与嵌入最相似的pinecone文档,以及分数。
返回文档和相关度分数,范围在[0, 1]之间。
similarity_search_with_score
(query[, k, ...])返回与查询最相似的pinecone文档及其分数。
- Parameters:
index (Any)
embedding (联合[Embeddings, 可调用])
text_key (str)
namespace (可选[str])
distance_strategy (可选[DistanceStrategy])
- __init__(index: Any, embedding: Embeddings | Callable, text_key: str, namespace: str | None = None, distance_strategy: DistanceStrategy | None = DistanceStrategy.COSINE)[source]#
使用Pinecone客户端进行初始化。
- Parameters:
index (Any)
embedding (Embeddings | Callable)
text_key (str)
命名空间 (字符串 | 无)
distance_strategy (DistanceStrategy | None)
- async aadd_documents(documents: list[Document], **kwargs: Any) list[str] #
通过嵌入异步运行更多文档并将其添加到向量存储中。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果ID的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- async aadd_texts(texts: Iterable[str], metadatas: list[dict] | None = None, *, ids: list[str] | None = None, **kwargs: Any) list[str] #
异步运行更多文本通过嵌入并添加到向量存储中。
- Parameters:
texts (Iterable[str]) – 要添加到向量存储中的字符串的可迭代对象。
metadatas (list[dict] | None) – 可选的与文本关联的元数据列表。默认值为 None。
ids (list[str] | None) – 可选的列表
**kwargs (Any) – 向量存储特定参数。
- Returns:
将文本添加到向量存储中后的ID列表。
- Raises:
ValueError – 如果元数据的数量与文本的数量不匹配。
ValueError – 如果id的数量与文本的数量不匹配。
- Return type:
列表[字符串]
- add_documents(documents: list[Document], **kwargs: Any) list[str] #
在向量存储中添加或更新文档。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档。
kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且 documents 也包含 ids, kwargs 中的 ids 将优先。
- Returns:
已添加文本的ID列表。
- Raises:
ValueError – 如果id的数量与文档的数量不匹配。
- Return type:
列表[字符串]
- add_texts(texts: Iterable[str], metadatas: List[dict] | None = None, ids: List[str] | None = None, namespace: str | None = None, batch_size: int = 32, embedding_chunk_size: int = 1000, **kwargs: Any) List[str] [source]#
通过嵌入运行更多文本并添加到向量存储中。
Upsert优化是通过将嵌入分块并进行upsert操作来完成的。这样做是为了避免内存问题并优化使用基于HTTP的嵌入。对于OpenAI嵌入,在构建pinecone.Index时使用pool_threads>4,embedding_chunk_size>1000和batch_size~64以获得最佳性能。 :param texts: 要添加到向量存储的字符串的可迭代对象。 :param metadatas: 与文本关联的可选元数据列表。 :param ids: 与文本关联的可选ID列表。 :param namespace: 添加文本的可选pinecone命名空间。 :param batch_size: 将文本添加到向量存储时使用的批量大小。 :param embedding_chunk_size: 嵌入文本时使用的块大小。
- Returns:
将文本添加到向量存储中后的ID列表。
- Parameters:
texts (可迭代对象[字符串])
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
命名空间 (字符串 | 无)
batch_size (int)
embedding_chunk_size (int)
kwargs (Any)
- Return type:
列表[str]
- async adelete(ids: list[str] | None = None, **kwargs: Any) bool | None #
通过向量ID或其他条件异步删除。
- Parameters:
ids (list[str] | None) – 要删除的id列表。如果为None,则删除所有。默认值为None。
**kwargs (Any) – 子类可能使用的其他关键字参数。
- Returns:
如果删除成功则为真, 否则为假,如果未实现则为无。
- Return type:
可选[布尔]
- async classmethod afrom_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST #
异步返回从文档和嵌入初始化的VectorStore。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档列表。
embedding (Embeddings) – 使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- Returns:
从文档和嵌入初始化的VectorStore。
- Return type:
- async classmethod afrom_texts(texts: list[str], embedding: Embeddings, metadatas: list[dict] | None = None, *, ids: list[str] | None = None, **kwargs: Any) VST #
异步返回从文本和嵌入初始化的VectorStore。
- Parameters:
texts (list[str]) – 要添加到向量存储中的文本。
embedding (Embeddings) – 使用的嵌入函数。
metadatas (list[dict] | None) – 可选的与文本关联的元数据列表。默认值为 None。
ids (list[str] | None) – 可选的与文本关联的ID列表。
kwargs (Any) – 额外的关键字参数。
- Returns:
VectorStore 从文本和嵌入初始化。
- Return type:
- async aget_by_ids(ids: Sequence[str], /) list[Document] #
通过ID异步获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) list[Document] #
异步返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- async amax_marginal_relevance_search_by_vector(embedding: list[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) list[Document] #
异步返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要传递给MMR算法的文档数量。 默认值为20。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever #
返回从此VectorStore初始化的VectorStoreRetriever。
- Parameters:
**kwargs (Any) –
传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
检索器应执行的搜索类型。 可以是“similarity”(默认)、“mmr”或“similarity_score_threshold”。
- search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
- 可以包括以下内容:
k: 返回的文档数量(默认:4) score_threshold: 最小相关性阈值
用于similarity_score_threshold
- fetch_k: 传递给MMR算法的文档数量
(默认:20)
- lambda_mult: MMR返回结果的多样性;
1表示最小多样性,0表示最大多样性。(默认:0.5)
filter: 按文档元数据过滤
- Returns:
VectorStore的检索器类。
- Return type:
示例:
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) list[Document] #
异步返回与查询最相似的文档,使用指定的搜索类型。
- Parameters:
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- async asimilarity_search(query: str, k: int = 4, **kwargs: Any) list[Document] #
异步返回与查询最相似的文档。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Return type:
列表[Document]
- async asimilarity_search_by_vector(embedding: list[float], k: int = 4, **kwargs: Any) list[Document] #
异步返回与嵌入向量最相似的文档。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
异步返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
过滤检索到的文档集
- Returns:
(文档,相似度分数)的元组列表
- Return type:
列表[元组[Document, 浮点数]]
- async asimilarity_search_with_score(*args: Any, **kwargs: Any) list[tuple[Document, float]] #
异步运行带有距离的相似性搜索。
- Parameters:
*args (Any) – 传递给搜索方法的参数。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
(文档, 相似度分数) 的元组列表。
- Return type:
列表[元组[Document, 浮点数]]
- delete(ids: List[str] | None = None, delete_all: bool | None = None, namespace: str | None = None, filter: dict | None = None, **kwargs: Any) None [来源]#
按向量ID或过滤器删除。 :param ids: 要删除的ID列表。 :param filter: 用于过滤要删除的向量的条件字典。
- Parameters:
ids (列表[字符串] | 无)
delete_all (bool | None)
命名空间 (字符串 | 无)
filter (字典 | 无)
kwargs (Any)
- Return type:
无
- classmethod from_documents(documents: list[Document], embedding: Embeddings, **kwargs: Any) VST #
返回从文档和嵌入初始化的VectorStore。
- Parameters:
documents (list[Document]) – 要添加到向量存储中的文档列表。
embedding (Embeddings) – 使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- Returns:
从文档和嵌入初始化的VectorStore。
- Return type:
- classmethod from_existing_index(index_name: str, embedding: Embeddings, text_key: str = 'text', namespace: str | None = None, pool_threads: int = 4) Pinecone [source]#
从索引名称加载pinecone向量存储。
- Parameters:
index_name (str)
embedding (Embeddings)
text_key (str)
命名空间 (字符串 | 无)
pool_threads (int)
- Return type:
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: List[dict] | None = None, ids: List[str] | None = None, batch_size: int = 32, text_key: str = 'text', namespace: str | None = None, index_name: str | None = None, upsert_kwargs: dict | None = None, pool_threads: int = 4, embeddings_chunk_size: int = 1000, **kwargs: Any) Pinecone [source]#
已弃用:请改用 langchain_pinecone.PineconeVectorStore.from_texts: 从原始文档构建 Pinecone 包装器。
- This is a user friendly interface that:
嵌入文档。
将文档添加到提供的Pinecone索引中
这是快速入门的一种方式。
pool_threads 影响 upsert 操作的速度。
示例
from langchain_pinecone import PineconeVectorStore from langchain_openai import OpenAIEmbeddings embeddings = OpenAIEmbeddings() index_name = "my-index" namespace = "my-namespace" vectorstore = Pinecone( index_name=index_name, embedding=embedding, namespace=namespace, )
- Parameters:
文本 (列表[字符串])
embedding (Embeddings)
metadatas (列表[字典] | 无)
ids (列表[字符串] | 无)
batch_size (int)
text_key (str)
命名空间 (字符串 | 无)
index_name (str | None)
upsert_kwargs (dict | None)
pool_threads (int)
embeddings_chunk_size (int)
kwargs (Any)
- Return type:
- get_by_ids(ids: Sequence[str], /) list[Document] #
通过ID获取文档。
返回的文档预计将具有ID字段,该字段设置为向量存储中文档的ID。
如果某些ID未找到或存在重复的ID,返回的文档数量可能少于请求的数量。
用户不应假设返回文档的顺序与输入ID的顺序相匹配。相反,用户应依赖返回文档的ID字段。
如果没有找到某些ID的文档,此方法不应引发异常。
- Parameters:
ids (Sequence[str]) – 要检索的ID列表。
- Returns:
文档列表。
- Return type:
列表[Document]
在版本0.2.11中添加。
- classmethod get_pinecone_index(index_name: str | None, pool_threads: int = 4) Index [来源]#
返回一个Pinecone索引实例。
- Parameters:
index_name (可选[str]) – 要使用的索引名称。
pool_threads (int) – 用于索引更新的线程数。
- Returns:
Pinecone 索引实例。
- Return type:
索引
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict | None = None, namespace: str | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (字典 | 无)
命名空间 (字符串 | 无)
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: dict | None = None, namespace: str | None = None, **kwargs: Any) List[Document] [source]#
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- Parameters:
embedding (List[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
fetch_k (int) – 要获取并传递给MMR算法的文档数量。
lambda_mult (float) – 介于0和1之间的数字,决定了结果之间的多样性程度,0对应最大多样性,1对应最小多样性。默认值为0.5。
filter (字典 | 无)
命名空间 (字符串 | 无)
kwargs (Any)
- Returns:
通过最大边际相关性选择的文档列表。
- Return type:
列表[文档]
- search(query: str, search_type: str, **kwargs: Any) list[Document] #
使用指定的搜索类型返回与查询最相似的文档。
- Parameters:
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是“similarity”、“mmr”或“similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询最相似的文档列表。
- Raises:
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- Return type:
列表[Document]
- similarity_search(query: str, k: int = 4, filter: dict | None = None, namespace: str | None = None, **kwargs: Any) List[Document] [source]#
返回与查询最相似的pinecone文档。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (dict | None) – 用于过滤元数据的参数字典
namespace (str | None) – 要搜索的命名空间。默认将在‘’命名空间中搜索。
kwargs (Any)
- Returns:
与查询最相似的文档列表及每个文档的得分
- Return type:
列表[文档]
- similarity_search_by_vector(embedding: list[float], k: int = 4, **kwargs: Any) list[Document] #
返回与嵌入向量最相似的文档。
- Parameters:
embedding (list[float]) – 用于查找相似文档的嵌入。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) – 传递给搜索方法的参数。
- Returns:
与查询向量最相似的文档列表。
- Return type:
列表[Document]
- similarity_search_by_vector_with_score(embedding: List[float], *, k: int = 4, filter: dict | None = None, namespace: str | None = None) List[Tuple[Document, float]] [source]#
返回与嵌入最相似的pinecone文档,以及分数。
- Parameters:
embedding (列表[浮点数])
k (整数)
filter (字典 | 无)
命名空间 (字符串 | 无)
- Return type:
列表[元组[文档, 浮点数]]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) list[tuple[Document, float]] #
返回文档和相关度分数,范围在[0, 1]之间。
0 表示不相似,1 表示最相似。
- Parameters:
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为4。
**kwargs (Any) –
传递给相似性搜索的kwargs。应包括: score_threshold: 可选,一个介于0到1之间的浮点值
用于过滤检索到的文档集。
- Returns:
(文档, 相似度分数) 的元组列表。
- Return type:
列表[元组[Document, 浮点数]]
- similarity_search_with_score(query: str, k: int = 4, filter: dict | None = None, namespace: str | None = None) List[Tuple[Document, float]] [source]#
返回与查询最相似的pinecone文档,以及分数。
- Parameters:
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为4。
filter (dict | None) – 用于过滤元数据的参数字典
namespace (str | None) – 要搜索的命名空间。默认将在‘’命名空间中搜索。
- Returns:
与查询最相似的文档列表及每个文档的得分
- Return type:
列表[元组[文档, 浮点数]]