langchain_community.vectorstores.thirdai_neuraldb
.NeuralDBVectorStore¶
- class langchain_community.vectorstores.thirdai_neuraldb.NeuralDBVectorStore(db: Any)[source]¶
使用ThirdAI的NeuralDB的Vectorstore。
要使用,应该安装``thirdai[neural_db]`` python包。
- 示例:
from langchain_community.vectorstores import NeuralDBVectorStore from thirdai import neural_db as ndb db = ndb.NeuralDB() vectorstore = NeuralDBVectorStore(db=db)
Attributes
db
神经数据库实例
embeddings
如果可用,访问查询嵌入对象。
Methods
__init__
(db)aadd_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas])运行更多的文本通过嵌入,并添加到向量存储中。
add_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
add_texts
(texts[, metadatas])运行更多文本通过嵌入并添加到向量存储。
adelete
([ids])根据向量ID或其他条件进行删除。
afrom_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas])返回从文本和嵌入初始化的VectorStore。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
asimilarity_search
(query[, k])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回文档和相关性分数在范围[0, 1]内,异步执行。
asimilarity_search_with_score
(*args, **kwargs)使用异步方式运行相似性搜索与距离。
associate
(source, target)向量存储将源短语与目标短语关联起来。 当向量存储看到源短语时,它还会考虑与目标短语相关的结果。
associate_batch
(text_pairs)给定一批(源,目标)对,向量存储将每个源短语与相应的目标短语关联起来。
delete
([ids])根据向量ID或其他条件进行删除。
from_checkpoint
(checkpoint[, thirdai_key])使用保存的检查点创建一个带有基本模型的NeuralDBVectorStore
from_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
from_scratch
([thirdai_key])从头开始创建一个 NeuralDBVectorStore。
from_texts
(texts, embedding[, metadatas])返回从文本和嵌入初始化的VectorStore。
insert
(sources[, train, fast_mode])将文件/文档源插入向量存储中。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
save
(path)将NeuralDB实例保存到磁盘。可以通过调用NeuralDB.from_checkpoint(path)将其加载到内存中。
search
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
similarity_search
(query[, k])检索给定查询的{k}个上下文
similarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回文档和相关性得分在[0, 1]范围内。
similarity_search_with_score
(*args, **kwargs)使用距离进行相似性搜索。
upvote
(query, document_id)向量存储增加了特定查询的文档得分。这对于微调向量存储以适应用户行为非常有用。
upvote_batch
(query_id_pairs)给定一批(查询,文档ID)对,向量存储器会增加对应查询的文档得分。这对于微调向量存储器以适应用户行为非常有用。
validate_environments
(values)验证 ThirdAI 环境变量。
- Parameters
db (Any) –
- Return type
None
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str] ¶
运行更多的文本通过嵌入,并添加到向量存储中。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str] [source]¶
运行更多文本通过嵌入并添加到向量存储。
- 参数:
texts:要添加到向量存储的字符串的可迭代对象。 metadatas:与文本相关联的元数据的可选列表。 kwargs:向量存储特定参数
- 返回:
将文本添加到向量存储中的ID列表。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
List[str]
- async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
根据向量ID或其他条件进行删除。
- 参数:
ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。
- 返回:
Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
Optional[bool]
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST ¶
返回从文本和嵌入初始化的VectorStore。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
VST
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从此VectorStore初始化的VectorStoreRetriever。
- 参数:
- search_type(可选[str]):定义Retriever应执行的搜索类型。
可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。
- search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:
k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选
- 返回:
VectorStoreRetriever:VectorStore的Retriever类。
示例:
# 检索更多具有更高多样性的文档 # 如果数据集中有许多相似的文档,则很有用 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # 为MMR算法考虑更多文档 # 但只返回前5个 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # 仅检索具有特定阈值以上相关性分数的文档 docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # 仅从数据集中获取最相似的单个文档 docsearch.as_retriever(search_kwargs={'k': 1}) # 使用筛选器仅从特定论文中检索文档 docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- Parameters
kwargs (Any) –
- Return type
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search(query: str, k: int = 4, **kwargs: Any) List[Document] ¶
返回与查询最相似的文档。
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- Parameters
embedding (List[float]) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性分数在范围[0, 1]内,异步执行。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似度分数)的列表
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
使用异步方式运行相似性搜索与距离。
- Parameters
args (Any) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- associate(source: str, target: str)[source]¶
向量存储将源短语与目标短语关联起来。 当向量存储看到源短语时,它还会考虑与目标短语相关的结果。
- 参数:
source:要与“target”关联的文本。 target:要将“source”关联到的文本。
- Parameters
source (str) –
target (str) –
- associate_batch(text_pairs: List[Tuple[str, str]])[source]¶
给定一批(源,目标)对,向量存储将每个源短语与相应的目标短语关联起来。
- 参数:
text_pairs:(源,目标)文本对的列表。对于此列表中的每对,源将与目标关联起来。
- Parameters
text_pairs (List[Tuple[str, str]]) –
- delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
根据向量ID或其他条件进行删除。
- 参数:
ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。
- 返回:
Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
Optional[bool]
- classmethod from_checkpoint(checkpoint: Union[str, Path], thirdai_key: Optional[str] = None)[source]¶
使用保存的检查点创建一个带有基本模型的NeuralDBVectorStore
要使用,请设置``THIRDAI_KEY``环境变量为您的ThirdAI API密钥,或将``thirdai_key``作为命名参数传递。
- 示例:
from langchain_community.vectorstores import NeuralDBVectorStore vectorstore = NeuralDBVectorStore.from_checkpoint( checkpoint="/path/to/checkpoint.ndb", thirdai_key="your-thirdai-key", ) vectorstore.insert([ "/path/to/doc.pdf", "/path/to/doc.docx", "/path/to/doc.csv", ]) documents = vectorstore.similarity_search("AI-driven music therapy")
- Parameters
checkpoint (Union[str, Path]) –
thirdai_key (Optional[str]) –
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- classmethod from_scratch(thirdai_key: Optional[str] = None, **model_kwargs)[source]¶
从头开始创建一个 NeuralDBVectorStore。
要使用,请设置``THIRDAI_KEY``环境变量为您的 ThirdAI API 密钥,或将``thirdai_key``作为一个命名参数传递。
- 示例:
from langchain_community.vectorstores import NeuralDBVectorStore vectorstore = NeuralDBVectorStore.from_scratch( thirdai_key="your-thirdai-key", ) vectorstore.insert([ "/path/to/doc.pdf", "/path/to/doc.docx", "/path/to/doc.csv", ]) documents = vectorstore.similarity_search("AI-driven music therapy")
- Parameters
thirdai_key (Optional[str]) –
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) NeuralDBVectorStore [source]¶
返回从文本和嵌入初始化的VectorStore。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
- insert(sources: List[Any], train: bool = True, fast_mode: bool = True, **kwargs)[source]¶
将文件/文档源插入向量存储中。
- 参数:
train: 当为True时,意味着NeuralDB中的基础模型将在插入的文件上进行无监督预训练。默认为True。 fast_mode: 更快的插入速度,性能略有下降。默认为True。
- Parameters
sources (List[Any]) –
train (bool) –
fast_mode (bool) –
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding:要查找相似文档的嵌入。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:介于0和1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- save(path: str)[source]¶
将NeuralDB实例保存到磁盘。可以通过调用NeuralDB.from_checkpoint(path)将其加载到内存中。
- 参数:
path: 保存NeuralDB实例的磁盘路径。
- Parameters
path (str) –
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search(query: str, k: int = 10, **kwargs: Any) List[Document] [source]¶
检索给定查询的{k}个上下文
- 参数:
query: 提交给模型的查询 k: 要检索的上下文结果的最大数量。默认为10。
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- 参数:
embedding:要查找与之相似的文档的嵌入。 k:要返回的文档数量。默认为4。
- 返回:
与查询向量最相似的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性得分在[0, 1]范围内。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似性得分)
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- similarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
使用距离进行相似性搜索。
- Parameters
args (Any) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- upvote(query: str, document_id: Union[int, str])[source]¶
向量存储增加了特定查询的文档得分。这对于微调向量存储以适应用户行为非常有用。
- 参数:
query:与`document_id`关联的文本 document_id:要与查询关联的文档的ID。
- Parameters
query (str) –
document_id (Union[int, str]) –