langchain_community.vectorstores.pinecone
.Pinecone¶
- class langchain_community.vectorstores.pinecone.Pinecone(index: Any, embedding: Union[Embeddings, Callable], text_key: str, namespace: Optional[str] = None, distance_strategy: Optional[DistanceStrategy] = DistanceStrategy.COSINE)[source]¶
[Deprecated] ```python # Pinecone向量存储。
# 要使用,应安装``pinecone-client`` Python包。
# 此版本的Pinecone已弃用。请改用`langchain_pinecone.Pinecone`。 ```
Notes
Deprecated since version 0.0.18.
使用Pinecone客户端进行初始化。
Attributes
embeddings
如果可用,访问查询嵌入对象。
Methods
__init__
(index, embedding, text_key[, ...])使用Pinecone客户端进行初始化。
aadd_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas])运行更多的文本通过嵌入,并添加到向量存储中。
add_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
add_texts
(texts[, metadatas, ids, ...])运行更多文本通过嵌入并添加到向量存储中。
adelete
([ids])根据向量ID或其他条件进行删除。
afrom_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas])返回从文本和嵌入初始化的VectorStore。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
asimilarity_search
(query[, k])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回文档和相关性分数在范围[0, 1]内,异步执行。
asimilarity_search_with_score
(*args, **kwargs)使用异步方式运行相似性搜索与距离。
delete
([ids, delete_all, namespace, filter])根据向量ID或筛选条件删除。 参数: ids:要删除的ID列表。 filter:用于筛选要删除的向量的条件字典。
from_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
from_existing_index
(index_name, embedding[, ...])从索引名称加载松果向量存储。
from_texts
(texts, embedding[, metadatas, ...])已弃用:请使用langchain_pinecone.PineconeVectorStore.from_texts代替: 从原始文档构建Pinecone包装器。
get_pinecone_index
(index_name[, pool_threads])返回一个Pinecone Index实例。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
search
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
similarity_search
(query[, k, filter, namespace])返回与查询最相似的松果文档。
similarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回与嵌入最相似的松果文档,以及相似度分数。
返回文档和相关性得分在[0, 1]范围内。
similarity_search_with_score
(query[, k, ...])返回与查询最相似的松果文档,以及分数。
- Parameters
index (Any) –
embedding (Union[Embeddings, Callable]) –
text_key (str) –
namespace (Optional[str]) –
distance_strategy (Optional[DistanceStrategy]) –
- __init__(index: Any, embedding: Union[Embeddings, Callable], text_key: str, namespace: Optional[str] = None, distance_strategy: Optional[DistanceStrategy] = DistanceStrategy.COSINE)[source]¶
使用Pinecone客户端进行初始化。
- Parameters
index (Any) –
embedding (Union[Embeddings, Callable]) –
text_key (str) –
namespace (Optional[str]) –
distance_strategy (Optional[DistanceStrategy]) –
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str] ¶
运行更多的文本通过嵌入,并添加到向量存储中。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, namespace: Optional[str] = None, batch_size: int = 32, embedding_chunk_size: int = 1000, **kwargs: Any) List[str] [source]¶
运行更多文本通过嵌入并添加到向量存储中。
通过对嵌入进行分块并进行upsert优化。 这样做是为了避免内存问题并优化使用基于HTTP的嵌入。 对于OpenAI嵌入,构建pinecone.Index时使用pool_threads>4, embedding_chunk_size>1000和batch_size~64可获得最佳性能。 参数:
texts:要添加到向量存储中的字符串的可迭代对象。 metadatas:与文本相关联的元数据的可选列表。 ids:要与文本关联的可选id列表。 namespace:要将文本添加到的可选pinecone命名空间。 batch_size:向向量存储添加文本时要使用的批量大小。 embedding_chunk_size:嵌入文本时要使用的块大小。
- 返回:
将文本添加到向量存储中的id列表。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
namespace (Optional[str]) –
batch_size (int) –
embedding_chunk_size (int) –
kwargs (Any) –
- Return type
List[str]
- async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
根据向量ID或其他条件进行删除。
- 参数:
ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。
- 返回:
Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
Optional[bool]
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST ¶
返回从文本和嵌入初始化的VectorStore。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
VST
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从此VectorStore初始化的VectorStoreRetriever。
- 参数:
- search_type(可选[str]):定义Retriever应执行的搜索类型。
可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。
- search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:
k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选
- 返回:
VectorStoreRetriever:VectorStore的Retriever类。
示例:
# 检索更多具有更高多样性的文档 # 如果数据集中有许多相似的文档,则很有用 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # 为MMR算法考虑更多文档 # 但只返回前5个 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # 仅检索具有特定阈值以上相关性分数的文档 docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # 仅从数据集中获取最相似的单个文档 docsearch.as_retriever(search_kwargs={'k': 1}) # 使用筛选器仅从特定论文中检索文档 docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- Parameters
kwargs (Any) –
- Return type
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search(query: str, k: int = 4, **kwargs: Any) List[Document] ¶
返回与查询最相似的文档。
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- Parameters
embedding (List[float]) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性分数在范围[0, 1]内,异步执行。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似度分数)的列表
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
使用异步方式运行相似性搜索与距离。
- Parameters
args (Any) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- delete(ids: Optional[List[str]] = None, delete_all: Optional[bool] = None, namespace: Optional[str] = None, filter: Optional[dict] = None, **kwargs: Any) None [source]¶
根据向量ID或筛选条件删除。 参数:
ids:要删除的ID列表。 filter:用于筛选要删除的向量的条件字典。
- Parameters
ids (Optional[List[str]]) –
delete_all (Optional[bool]) –
namespace (Optional[str]) –
filter (Optional[dict]) –
kwargs (Any) –
- Return type
None
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- classmethod from_existing_index(index_name: str, embedding: Embeddings, text_key: str = 'text', namespace: Optional[str] = None, pool_threads: int = 4) Pinecone [source]¶
从索引名称加载松果向量存储。
- Parameters
index_name (str) –
embedding (Embeddings) –
text_key (str) –
namespace (Optional[str]) –
pool_threads (int) –
- Return type
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, batch_size: int = 32, text_key: str = 'text', namespace: Optional[str] = None, index_name: Optional[str] = None, upsert_kwargs: Optional[dict] = None, pool_threads: int = 4, embeddings_chunk_size: int = 1000, **kwargs: Any) Pinecone [source]¶
已弃用:请使用langchain_pinecone.PineconeVectorStore.from_texts代替: 从原始文档构建Pinecone包装器。
- 这是一个用户友好的接口,可以:
嵌入文档。
将文档添加到提供的Pinecone索引中。
这旨在是一个快速入门的方式。
`pool_threads`会影响upsert操作的速度。
- 示例:
from langchain_pinecone import PineconeVectorStore from langchain_openai import OpenAIEmbeddings embeddings = OpenAIEmbeddings() index_name = "my-index" namespace = "my-namespace" vectorstore = Pinecone( index_name=index_name, embedding=embedding, namespace=namespace, )
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
batch_size (int) –
text_key (str) –
namespace (Optional[str]) –
index_name (Optional[str]) –
upsert_kwargs (Optional[dict]) –
pool_threads (int) –
embeddings_chunk_size (int) –
kwargs (Any) –
- Return type
- classmethod get_pinecone_index(index_name: Optional[str], pool_threads: int = 4) Index [source]¶
返回一个Pinecone Index实例。
- 参数:
index_name: 要使用的索引名称。 pool_threads: 用于索引更新的线程数。
- 返回:
Pinecone Index实例。
- Parameters
index_name (Optional[str]) –
pool_threads (int) –
- Return type
Index
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[dict] = None, namespace: Optional[str] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找相似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[dict]) –
namespace (Optional[str]) –
kwargs (Any) –
- Return type
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[dict] = None, namespace: Optional[str] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 fetch_k:要获取并传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,
0对应最大多样性,1对应最小多样性。 默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[dict]) –
namespace (Optional[str]) –
kwargs (Any) –
- Return type
List[Document]
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search(query: str, k: int = 4, filter: Optional[dict] = None, namespace: Optional[str] = None, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的松果文档。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter:要在元数据上过滤的参数字典 namespace:要搜索的命名空间。默认将在’’命名空间中搜索。
- 返回:
与查询最相似的文档列表,以及每个文档的得分。
- Parameters
query (str) –
k (int) –
filter (Optional[dict]) –
namespace (Optional[str]) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- 参数:
embedding:要查找与之相似的文档的嵌入。 k:要返回的文档数量。默认为4。
- 返回:
与查询向量最相似的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_by_vector_with_score(embedding: List[float], *, k: int = 4, filter: Optional[dict] = None, namespace: Optional[str] = None) List[Tuple[Document, float]] [source]¶
返回与嵌入最相似的松果文档,以及相似度分数。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[dict]) –
namespace (Optional[str]) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性得分在[0, 1]范围内。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似性得分)
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score(query: str, k: int = 4, filter: Optional[dict] = None, namespace: Optional[str] = None) List[Tuple[Document, float]] [source]¶
返回与查询最相似的松果文档,以及分数。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 filter:要在元数据上过滤的参数字典 namespace:要搜索的命名空间。默认将在’’命名空间中搜索。
- 返回:
返回与查询最相似的文档列表,以及每个文档的分数。
- Parameters
query (str) –
k (int) –
filter (Optional[dict]) –
namespace (Optional[str]) –
- Return type
List[Tuple[Document, float]]