langchain_community.cache.AstraDBSemanticCache

class langchain_community.cache.AstraDBSemanticCache(*, collection_name: str = 'langchain_astradb_semantic_cache', token: Optional[str] = None, api_endpoint: Optional[str] = None, astra_db_client: Optional[AstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, setup_mode: AstraSetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, embedding: Embeddings, metric: Optional[str] = None, similarity_threshold: float = 0.85)[source]

[Deprecated]

Notes

Deprecated since version 0.0.28.

使用Astra DB作为语义(即基于相似性)查找的向量存储后端的缓存。

它使用单个(向量)集合,并可以存储来自多个LLM的缓存值,因此LLM的’llm_string’存储在文档元数据中。

您可以选择首选相似度(或使用API默认值)。 默认分数阈值已调整为默认度量标准。 如果切换到另一个距离度量,请自行小心调整。

参数:

collection_name:要创建/使用的Astra DB集合的名称。 token:用于Astra DB使用的API令牌。 api_endpoint:API端点的完整URL,

例如`https://<DB-ID>-us-east1.apps.astra.datastax.com`。

astra_db_client:*令牌+api_endpoint*的替代方法,

您可以传递一个已创建的’astrapy.db.AstraDB’实例。

async_astra_db_client:*令牌+api_endpoint*的替代方法,

您可以传递一个已创建的’astrapy.db.AsyncAstraDB’实例。

namespace:创建集合的命名空间(又名键空间)。

默认为数据库的“默认命名空间”。

setup_mode:用于创建Astra DB集合的模式(SYNC、ASYNC或OFF)。 pre_delete_collection:在创建集合之前是否删除集合。

如果为False且集合已经存在,则将使用现有集合。

embedding:用于语义编码和搜索的嵌入提供程序。 metric:用于评估文本嵌入相似性的函数。

默认为’cosine’(可选:’euclidean’、’dot_product’)。

similarity_threshold:接受(语义搜索)匹配的最小相似度。

Methods

__init__(*[, collection_name, token, ...])

使用Astra DB作为语义(即基于相似性)查找的向量存储后端的缓存。

aclear(**kwargs)

清除可以接受额外关键字参数的缓存。

adelete_by_document_id(document_id)

考虑到这是一个“相似性搜索”缓存,一个合理的失效模式是首先进行查找以获取一个ID,然后使用该ID进行删除。这是第二步。

alookup(prompt, llm_string)

根据提示和llm_string进行查找。

alookup_with_id(prompt, llm_string)

根据提示和llm_string进行查找。 如果有匹配结果,则返回顶部匹配结果的(document_id, cached_entry)。

alookup_with_id_through_llm(prompt, llm[, stop])

aupdate(prompt, llm_string, return_val)

根据提示和llm_string更新缓存。

clear(**kwargs)

清除可以接受额外关键字参数的缓存。

delete_by_document_id(document_id)

考虑到这是一个“相似性搜索”缓存,一个合理的失效模式是首先进行查找以获取一个ID,然后使用该ID进行删除。这是第二步。

lookup(prompt, llm_string)

根据提示和llm_string进行查找。

lookup_with_id(prompt, llm_string)

根据提示和llm_string进行查找。 如果有匹配结果,则返回顶部匹配结果的(document_id, cached_entry)。

lookup_with_id_through_llm(prompt, llm[, stop])

update(prompt, llm_string, return_val)

根据提示和llm_string更新缓存。

Parameters
  • collection_name (str) –

  • token (Optional[str]) –

  • api_endpoint (Optional[str]) –

  • astra_db_client (Optional[AstraDB]) –

  • async_astra_db_client (Optional[AsyncAstraDB]) –

  • namespace (Optional[str]) –

  • setup_mode (AstraSetupMode) –

  • pre_delete_collection (bool) –

  • embedding (Embeddings) –

  • metric (Optional[str]) –

  • similarity_threshold (float) –

__init__(*, collection_name: str = 'langchain_astradb_semantic_cache', token: Optional[str] = None, api_endpoint: Optional[str] = None, astra_db_client: Optional[AstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, setup_mode: AstraSetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, embedding: Embeddings, metric: Optional[str] = None, similarity_threshold: float = 0.85)[source]

使用Astra DB作为语义(即基于相似性)查找的向量存储后端的缓存。

它使用单个(向量)集合,并可以存储来自多个LLM的缓存值,因此LLM的’llm_string’存储在文档元数据中。

您可以选择首选相似度(或使用API默认值)。 默认分数阈值已调整为默认度量标准。 如果切换到另一个距离度量,请自行小心调整。

参数:

collection_name:要创建/使用的Astra DB集合的名称。 token:用于Astra DB使用的API令牌。 api_endpoint:API端点的完整URL,

例如`https://<DB-ID>-us-east1.apps.astra.datastax.com`。

astra_db_client:*令牌+api_endpoint*的替代方法,

您可以传递一个已创建的’astrapy.db.AstraDB’实例。

async_astra_db_client:*令牌+api_endpoint*的替代方法,

您可以传递一个已创建的’astrapy.db.AsyncAstraDB’实例。

namespace:创建集合的命名空间(又名键空间)。

默认为数据库的“默认命名空间”。

setup_mode:用于创建Astra DB集合的模式(SYNC、ASYNC或OFF)。 pre_delete_collection:在创建集合之前是否删除集合。

如果为False且集合已经存在,则将使用现有集合。

embedding:用于语义编码和搜索的嵌入提供程序。 metric:用于评估文本嵌入相似性的函数。

默认为’cosine’(可选:’euclidean’、’dot_product’)。

similarity_threshold:接受(语义搜索)匹配的最小相似度。

Parameters
  • collection_name (str) –

  • token (Optional[str]) –

  • api_endpoint (Optional[str]) –

  • astra_db_client (Optional[AstraDB]) –

  • async_astra_db_client (Optional[AsyncAstraDB]) –

  • namespace (Optional[str]) –

  • setup_mode (AstraSetupMode) –

  • pre_delete_collection (bool) –

  • embedding (Embeddings) –

  • metric (Optional[str]) –

  • similarity_threshold (float) –

async aclear(**kwargs: Any) None[source]

清除可以接受额外关键字参数的缓存。

Parameters

kwargs (Any) –

Return type

None

async adelete_by_document_id(document_id: str) None[source]

考虑到这是一个“相似性搜索”缓存,一个合理的失效模式是首先进行查找以获取一个ID,然后使用该ID进行删除。这是第二步。

Parameters

document_id (str) –

Return type

None

async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

根据提示和llm_string进行查找。

期望缓存实现从提示和llm_string的2元组中生成一个键(例如,通过使用分隔符将它们连接起来)。

参数:
prompt:提示的字符串表示。

对于Chat模型,提示是将提示序列化为语言模型的非平凡表示。

llm_string:LLM配置的字符串表示。

这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串表示。

返回:

在缓存未命中时,返回None。在缓存命中时,返回缓存的值。 缓存的值是Generations(或子类)的列表。

Parameters
  • prompt (str) –

  • llm_string (str) –

Return type

Optional[Sequence[Generation]]

async alookup_with_id(prompt: str, llm_string: str) Optional[Tuple[str, Sequence[Generation]]][source]

根据提示和llm_string进行查找。 如果有匹配结果,则返回顶部匹配结果的(document_id, cached_entry)。

Parameters
  • prompt (str) –

  • llm_string (str) –

Return type

Optional[Tuple[str, Sequence[Generation]]]

async alookup_with_id_through_llm(prompt: str, llm: LLM, stop: Optional[List[str]] = None) Optional[Tuple[str, Sequence[Generation]]][source]
Parameters
  • prompt (str) –

  • llm (LLM) –

  • stop (Optional[List[str]]) –

Return type

Optional[Tuple[str, Sequence[Generation]]]

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]

根据提示和llm_string更新缓存。

提示和llm_string用于生成缓存的键。 键应该与查找方法的键匹配。

参数:
prompt:提示的字符串表示。

对于Chat模型,提示是将提示序列化为语言模型的非平凡表示。

llm_string:LLM配置的字符串表示。

这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串表示。

return_val:要缓存的值。该值是Generations的列表(或子类)。

Parameters
  • prompt (str) –

  • llm_string (str) –

  • return_val (Sequence[Generation]) –

Return type

None

clear(**kwargs: Any) None[source]

清除可以接受额外关键字参数的缓存。

Parameters

kwargs (Any) –

Return type

None

delete_by_document_id(document_id: str) None[source]

考虑到这是一个“相似性搜索”缓存,一个合理的失效模式是首先进行查找以获取一个ID,然后使用该ID进行删除。这是第二步。

Parameters

document_id (str) –

Return type

None

lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

根据提示和llm_string进行查找。

期望缓存实现从提示和llm_string的2元组中生成一个键(例如,通过使用分隔符将它们连接起来)。

参数:
prompt:提示的字符串表示。

对于Chat模型,提示是将提示序列化为语言模型的非平凡表示。

llm_string:LLM配置的字符串表示。

这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串表示。

返回:

在缓存未命中时,返回None。在缓存命中时,返回缓存的值。 缓存的值是Generations(或子类)的列表。

Parameters
  • prompt (str) –

  • llm_string (str) –

Return type

Optional[Sequence[Generation]]

lookup_with_id(prompt: str, llm_string: str) Optional[Tuple[str, Sequence[Generation]]][source]

根据提示和llm_string进行查找。 如果有匹配结果,则返回顶部匹配结果的(document_id, cached_entry)。

Parameters
  • prompt (str) –

  • llm_string (str) –

Return type

Optional[Tuple[str, Sequence[Generation]]]

lookup_with_id_through_llm(prompt: str, llm: LLM, stop: Optional[List[str]] = None) Optional[Tuple[str, Sequence[Generation]]][source]
Parameters
  • prompt (str) –

  • llm (LLM) –

  • stop (Optional[List[str]]) –

Return type

Optional[Tuple[str, Sequence[Generation]]]

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]

根据提示和llm_string更新缓存。

提示和llm_string用于生成缓存的键。 键应该与查找方法的键匹配。

参数:
prompt:提示的字符串表示。

对于Chat模型,提示是将提示序列化为语言模型的非平凡表示。

llm_string:LLM配置的字符串表示。

这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串表示。

return_val:要缓存的值。该值是Generations的列表(或子类)。

Parameters
  • prompt (str) –

  • llm_string (str) –

  • return_val (Sequence[Generation]) –

Return type

None

Examples using AstraDBSemanticCache