langchain_community.vectorstores.lantern
.Lantern¶
- class langchain_community.vectorstores.lantern.Lantern(connection_string: str, embedding_function: Embeddings, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, collection_name: str = 'langchain', collection_metadata: Optional[dict] = None, pre_delete_collection: bool = False, logger: Optional[Logger] = None, relevance_score_fn: Optional[Callable[[float], float]] = None)[source]¶
`Postgres`与`lantern`扩展作为向量存储。
lantern默认使用顺序扫描。但是你可以使用create_hnsw_index方法创建HNSW索引。 - `connection_string`是一个postgres连接字符串。 - `embedding_function`是实现`langchain.embeddings.base.Embeddings`接口的任何嵌入函数。 - `collection_name`是要使用的集合的名称。(默认值:langchain)
- 注意:这是嵌入数据将被存储的表的名称
表将在初始化存储时创建(如果不存在) 因此,请确保用户有创建表的权限。
- `pre_delete_collection`如果为True,将删除集合(如果存在)。
(默认值:False) - 用于测试。
Attributes
distance_function
distance_strategy
embeddings
如果可用,访问查询嵌入对象。
Methods
__init__
(connection_string, embedding_function)aadd_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
aadd_texts
(texts[, metadatas])运行更多的文本通过嵌入,并添加到向量存储中。
add_documents
(documents, **kwargs)运行更多的文档通过嵌入并添加到向量存储中。
add_embeddings
(texts, embeddings, metadatas, ...)add_texts
(texts[, metadatas, ids])运行更多的文本通过嵌入,并添加到向量存储中。
adelete
([ids])根据向量ID或其他条件进行删除。
afrom_documents
(documents, embedding, **kwargs)返回从文档和嵌入初始化的VectorStore。
afrom_texts
(texts, embedding[, metadatas])返回从文本和嵌入初始化的VectorStore。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从此VectorStore初始化的VectorStoreRetriever。
asearch
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
asimilarity_search
(query[, k])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回文档和相关性分数在范围[0, 1]内,异步执行。
asimilarity_search_with_score
(*args, **kwargs)使用异步方式运行相似性搜索与距离。
connect
()connection_string_from_db_params
(driver, ...)从数据库参数返回连接字符串。
create_hnsw_index
([dims, m, ...])在集合上创建HNSW索引。
delete
([ids])根据id或uuid删除向量。
from_documents
(documents, embedding[, ...])初始化一个包含一组文档的向量存储。
from_embeddings
(text_embeddings, embedding)从原始文档和预生成的嵌入中构建 Lantern 包装器。
from_existing_index
(embedding[, ...])获取现有Lantern存储库的实例。此方法将返回存储库的实例,而不会插入任何新的嵌入。
from_texts
(texts, embedding[, metadatas, ...])从文本列表初始化Lantern向量存储。 将使用提供的`embedding`类生成嵌入。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档到嵌入向量。
返回使用最大边际相关性和分数选择的文档。
使用最大边际相关性和分数返回所选文档的文档。
search
(query, search_type, **kwargs)返回使用指定搜索类型的查询最相似的文档。
similarity_search
(query[, k, filter])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关性得分在[0, 1]范围内。
similarity_search_with_score
(query[, k, filter])使用距离进行相似性搜索。
similarity_search_with_score_by_vector
(embedding)- Parameters
connection_string (str) –
embedding_function (Embeddings) –
distance_strategy (DistanceStrategy) –
collection_name (str) –
collection_metadata (Optional[dict]) –
pre_delete_collection (bool) –
logger (Optional[logging.Logger]) –
relevance_score_fn (Optional[Callable[[float], float]]) –
- Return type
None
- __init__(connection_string: str, embedding_function: Embeddings, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, collection_name: str = 'langchain', collection_metadata: Optional[dict] = None, pre_delete_collection: bool = False, logger: Optional[Logger] = None, relevance_score_fn: Optional[Callable[[float], float]] = None) None [source]¶
- Parameters
connection_string (str) –
embedding_function (Embeddings) –
distance_strategy (DistanceStrategy) –
collection_name (str) –
collection_metadata (Optional[dict]) –
pre_delete_collection (bool) –
logger (Optional[Logger]) –
relevance_score_fn (Optional[Callable[[float], float]]) –
- Return type
None
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str] ¶
运行更多的文本通过嵌入,并添加到向量存储中。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
运行更多的文档通过嵌入并添加到向量存储中。
- 参数:
documents (List[Document]): 要添加到向量存储中的文档。
- 返回:
List[str]: 添加的文本的ID列表。
- Parameters
documents (List[Document]) –
kwargs (Any) –
- Return type
List[str]
- add_embeddings(texts: List[str], embeddings: List[List[float]], metadatas: List[dict], ids: List[str], **kwargs: Any) None [source]¶
- Parameters
texts (List[str]) –
embeddings (List[List[float]]) –
metadatas (List[dict]) –
ids (List[str]) –
kwargs (Any) –
- Return type
None
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str] [source]¶
运行更多的文本通过嵌入,并添加到向量存储中。
- 参数:
texts: 要添加到向量存储中的字符串的可迭代对象。 metadatas: 与文本相关的元数据的可选列表。 kwargs: 向量存储特定的参数。
- 返回:
将文本添加到向量存储中的id列表。
- Parameters
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
List[str]
- async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
根据向量ID或其他条件进行删除。
- 参数:
ids:要删除的ID列表。 **kwargs:子类可能使用的其他关键字参数。
- 返回:
Optional[bool]:如果删除成功则为True,否则为False,如果未实现则为None。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
Optional[bool]
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
返回从文档和嵌入初始化的VectorStore。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
kwargs (Any) –
- Return type
VST
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST ¶
返回从文本和嵌入初始化的VectorStore。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- Return type
VST
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query:要查找类似文档的文本。 k:要返回的文档数量。默认为4。 fetch_k:要获取以传递给MMR算法的文档数量。 lambda_mult:0到1之间的数字,确定结果之间多样性的程度,0对应最大多样性,1对应最小多样性。默认为0.5。
- 返回:
由最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
kwargs (Any) –
- Return type
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从此VectorStore初始化的VectorStoreRetriever。
- 参数:
- search_type(可选[str]):定义Retriever应执行的搜索类型。
可以是”similarity”(默认值)、”mmr”或”similarity_score_threshold”。
- search_kwargs(可选[Dict]):传递给搜索函数的关键字参数。可以包括:
k:要返回的文档数量(默认值:4) score_threshold:用于similarity_score_threshold的最小相关性阈值 fetch_k:传递给MMR算法的文档数量(默认值:20) lambda_mult:MMR返回结果的多样性;1表示最小多样性,0表示最大多样性(默认值:0.5) filter:按文档元数据筛选
- 返回:
VectorStoreRetriever:VectorStore的Retriever类。
示例:
# 检索更多具有更高多样性的文档 # 如果数据集中有许多相似的文档,则很有用 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # 为MMR算法考虑更多文档 # 但只返回前5个 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # 仅检索具有特定阈值以上相关性分数的文档 docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # 仅从数据集中获取最相似的单个文档 docsearch.as_retriever(search_kwargs={'k': 1}) # 使用筛选器仅从特定论文中检索文档 docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- Parameters
kwargs (Any) –
- Return type
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search(query: str, k: int = 4, **kwargs: Any) List[Document] ¶
返回与查询最相似的文档。
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- Parameters
embedding (List[float]) –
k (int) –
kwargs (Any) –
- Return type
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性分数在范围[0, 1]内,异步执行。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似度分数)的列表
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
使用异步方式运行相似性搜索与距离。
- Parameters
args (Any) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- classmethod connection_string_from_db_params(driver: str, host: str, port: int, database: str, user: str, password: str) str [source]¶
从数据库参数返回连接字符串。
- Parameters
driver (str) –
host (str) –
port (int) –
database (str) –
user (str) –
password (str) –
- Return type
str
- create_hnsw_index(dims: int = 1536, m: int = 16, ef_construction: int = 64, ef_search: int = 64, **_kwargs: Any) None [source]¶
在集合上创建HNSW索引。
- HNSW索引的可选关键字参数:
engine: “nmslib”, “faiss”, “lucene”; 默认值: “nmslib”
ef: k-NN搜索期间使用的动态列表的大小。较高的值会导致更准确但更慢的搜索;默认值: 64
ef_construction: k-NN图创建期间使用的动态列表的大小。较高的值会导致更准确的图形但索引速度较慢;默认值: 64
m: 每个新元素创建的双向链接数。对内存消耗有很大影响。介于2和100之间;默认值: 16
dims: 集合中向量的维度。默认值: 1536
- Parameters
dims (int) –
m (int) –
ef_construction (int) –
ef_search (int) –
_kwargs (Any) –
- Return type
None
- delete(ids: Optional[List[str]] = None, **kwargs: Any) None [source]¶
根据id或uuid删除向量。
- 参数:
ids:要删除的id列表。
- Parameters
ids (Optional[List[str]]) –
kwargs (Any) –
- Return type
None
- classmethod from_documents(documents: List[Document], embedding: Embeddings, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, **kwargs: Any) Lantern [source]¶
初始化一个包含一组文档的向量存储。
需要Postgres连接字符串 “可以通过`connection_string`参数传递 或设置LANTERN_CONNECTION_STRING环境变量。
`connection_string`是一个Postgres连接字符串。
embedding`是将用于嵌入发送的文本的:class:`Embeddings。如果未发送任何内容,则将使用多语言Tensorflow通用句子编码器。
- `collection_name`是要使用的集合名称。(默认值:langchain)
- 注意:这是将存储嵌入数据的表的名称
初始化存储时将创建该表(如果不存在) 因此,请确保用户具有创建表的权限。
`ids`要插入到集合中的行ID。
- `pre_delete_collection`如果为True,则将删除集合(如果存在)。
(默认值:False) - 用于测试。
- Parameters
documents (List[Document]) –
embedding (Embeddings) –
collection_name (str) –
distance_strategy (DistanceStrategy) –
ids (Optional[List[str]]) –
pre_delete_collection (bool) –
kwargs (Any) –
- Return type
- classmethod from_embeddings(text_embeddings: List[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[List[dict]] = None, collection_name: str = 'langchain', ids: Optional[List[str]] = None, pre_delete_collection: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, **kwargs: Any) Lantern [source]¶
从原始文档和预生成的嵌入中构建 Lantern 包装器。
需要Postgres连接字符串 “可以将其作为 connection_string 参数传递 或设置 LANTERN_CONNECTION_STRING 环境变量。
列表 ids、text_embeddings、metadatas 的元素顺序应该匹配, 这样每一行将与正确的值关联。
connection_string 是用于 postgres 数据库的完全填充的连接字符串
- text_embeddings 是包含元组 (text, embedding) 的数组
用于插入到集合中。
- embedding 是将用于嵌入发送的文本的
Embeddings
。 如果未发送任何内容,则将使用多语言 Tensorflow Universal Sentence Encoder。
- embedding 是将用于嵌入发送的文本的
metadatas 行元数据,用于插入到集合中。
- collection_name 是要使用的集合的名称。 (默认值: langchain)
- 注意: 这是嵌入数据将被存储的表的名称
初始化存储时将创建该表(如果不存在) 因此,请确保用户具有创建表的权限。
ids 要插入到集合中的行 ids。
- pre_delete_collection 如果为 True,则将删除该集合(如果存在)。
(默认值: False) - 用于测试。
- distance_strategy 是要使用的距离策略。 (默认值: EUCLIDEAN)
EUCLIDEAN 是欧几里德距离。
COSINE 是余弦距禮。
HAMMING 是汉明距离。
- Parameters
text_embeddings (List[Tuple[str, List[float]]]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
collection_name (str) –
ids (Optional[List[str]]) –
pre_delete_collection (bool) –
distance_strategy (DistanceStrategy) –
kwargs (Any) –
- Return type
- classmethod from_existing_index(embedding: Embeddings, collection_name: str = 'langchain', pre_delete_collection: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, **kwargs: Any) Lantern [source]¶
获取现有Lantern存储库的实例。此方法将返回存储库的实例,而不会插入任何新的嵌入。
需要Postgres连接字符串 “可以将其作为`connection_string`参数传递 或设置LANTERN_CONNECTION_STRING环境变量。
`connection_string`是一个Postgres连接字符串。
embedding`是将用于嵌入发送的文本的:class:`Embeddings。如果未发送任何内容,则将使用多语言Tensorflow通用句子编码器。
- `collection_name`是要使用的集合的名称。(默认值:langchain)
- 注意:这是嵌入数据将被存储的表的名称
表将在初始化存储时创建(如果不存在) 因此,请确保用户具有创建表的权限。
`ids`要插入到集合中的行ID。
- `pre_delete_collection`如果为True,则将删除该集合(如果存在)。
(默认值:False) - 用于测试。
- Parameters
embedding (Embeddings) –
collection_name (str) –
pre_delete_collection (bool) –
distance_strategy (DistanceStrategy) –
kwargs (Any) –
- Return type
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, **kwargs: Any) Lantern [source]¶
从文本列表初始化Lantern向量存储。 将使用提供的`embedding`类生成嵌入。
列表`ids`、texts、`metadatas`中元素的顺序应该匹配, 这样每一行将与正确的值关联。
需要Postgres连接字符串 “可以将其作为`connection_string`参数传递 或设置LANTERN_CONNECTION_STRING环境变量。
connection_string 是用于postgres数据库的完全填充的连接字符串
texts 要插入到集合中的文本。
- embedding 是将用于嵌入发送的文本的:class:Embeddings。
如果未发送任何内容,则将使用多语言Tensorflow通用句子编码器。
metadatas 要插入到集合中的行元数据。
- collection_name 是要使用的集合的名称。(默认值:langchain)
- 注意:这是嵌入数据将被存储的表的名称
表将在初始化存储时创建(如果不存在) 因此,请确保用户具有创建表的权限。
- distance_strategy 是要使用的距离策略。(默认值:EUCLIDEAN)
EUCLIDEAN 是欧几里德距离。
COSINE 是余弦距离。
HAMMING 是汉明距离。
ids 要插入到集合中的行ID。
- pre_delete_collection 如果为True,则将删除集合(如果存在)。
(默认值:False) - 用于测试。
- Parameters
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
collection_name (str) –
distance_strategy (DistanceStrategy) –
ids (Optional[List[str]]) –
pre_delete_collection (bool) –
kwargs (Any) –
- Return type
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query (str): 要查找类似文档的文本。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。
默认为20。
- lambda_mult (float): 介于0和1之间的数字,确定结果之间多样性的程度,
其中0对应于最大多样性,1对应于最小多样性。 默认为0.5。
filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。
- 返回:
List[Document]: 通过最大边际相关性选择的文档列表。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, str]]) –
kwargs (Any) –
- Return type
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档到嵌入向量。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding (str): 要查找类似文档的文本。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。
默认为20。
- lambda_mult (float): 0到1之间的数字,确定结果之间多样性的程度,
0对应最大多样性,1对应最小多样性。 默认为0.5。
filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。
- 返回:
List[Document]: 通过最大边际相关性选择的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, str]]) –
kwargs (Any) –
- Return type
List[Document]
- max_marginal_relevance_search_with_score(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[dict] = None, **kwargs: Any) List[Tuple[Document, float]] [source]¶
返回使用最大边际相关性和分数选择的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
query (str): 要查找类似文档的文本。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。
默认为20。
- lambda_mult (float): 0到1之间的数字,确定结果之间多样性的程度,
0对应最大多样性,1对应最小多样性。 默认为0.5。
filter (Optional[Dict[str, str]]): 按元数据过滤。默认为None。
- 返回:
- List[Tuple[Document, float]]: 通过最大边际相关性选择的文档列表,
以及每个文档的得分。
- Parameters
query (str) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[dict]) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- max_marginal_relevance_search_with_score_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Tuple[Document, float]] [source]¶
使用最大边际相关性和分数返回所选文档的文档。
最大边际相关性优化了与查询的相似性和所选文档之间的多样性。
- 参数:
embedding: 要查找相似文档的嵌入。 k (int): 要返回的文档数量。默认为4。 fetch_k (int): 要获取以传递给MMR算法的文档数量。默认为20。 lambda_mult (float): 0到1之间的数字,确定结果之间多样性的程度,其中0对应最大多样性,1对应最小多样性。默认为0.5。 filter (Optional[Dict[str, str]]): 按元数据筛选。默认为None。
- 返回:
List[Tuple[Document, float]]: 通过最大边际相关性选择的文档列表,以及每个文档的得分。
- Parameters
embedding (List[float]) –
k (int) –
fetch_k (int) –
lambda_mult (float) –
filter (Optional[Dict[str, str]]) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型的查询最相似的文档。
- Parameters
query (str) –
search_type (str) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search(query: str, k: int = 4, filter: Optional[dict] = None, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- Parameters
query (str) –
k (int) –
filter (Optional[dict]) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[dict] = None, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数:
embedding:要查找与之相似的文档的嵌入。 k:要返回的文档数量。默认为4。
- 返回:
与查询向量最相似的文档列表。
- Parameters
embedding (List[float]) –
k (int) –
filter (Optional[dict]) –
kwargs (Any) –
- Return type
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性得分在[0, 1]范围内。
0表示不相似,1表示最相似。
- 参数:
query:输入文本 k:要返回的文档数量。默认为4。 **kwargs:要传递给相似性搜索的kwargs。应包括:
score_threshold:可选,介于0到1之间的浮点值,用于过滤检索到的文档集
- 返回:
元组列表(doc,相似性得分)
- Parameters
query (str) –
k (int) –
kwargs (Any) –
- Return type
List[Tuple[Document, float]]