AstraDBSemanticCache#

class langchain_community.cache.AstraDBSemanticCache(*, collection_name: str = 'langchain_astradb_semantic_cache', token: str | None = None, api_endpoint: str | None = None, astra_db_client: AstraDB | None = None, async_astra_db_client: AsyncAstraDB | None = None, namespace: str | None = None, setup_mode: AstraSetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, embedding: Embeddings, metric: str | None = None, similarity_threshold: float = 0.85)[源代码]#

自版本0.0.28起已弃用:请改用:class:`~langchain_astradb.AstraDBSemanticCache`。在langchain-community==1.0之前不会移除。

使用Astra DB作为向量存储后端的缓存,用于语义(即基于相似性)查找。

它使用一个单一的(向量)集合,并且可以存储来自多个LLM的缓存值,因此LLM的‘llm_string’存储在文档元数据中。

您可以选择首选的相似度(或使用API默认值)。 默认的分数阈值是针对默认度量进行调整的。 如果切换到其他距离度量,请仔细自行调整。

Parameters:
  • collection_name (str) – 要创建/使用的Astra DB集合的名称。

  • token (可选[str]) – 用于Astra DB的API令牌。

  • api_endpoint (可选[str]) – API端点的完整URL, 例如 https://-us-east1.apps.astra.datastax.com

  • astra_db_client (可选[AstraDB]) – 替代 token+api_endpoint, 你可以传递一个已经创建的 'astrapy.db.AstraDB' 实例。

  • async_astra_db_client (Optional[AsyncAstraDB]) – 替代token+api_endpoint, 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例。

  • namespace (可选[str]) – 创建集合的命名空间(也称为keyspace)。默认为数据库的“默认命名空间”。

  • setup_mode (AstraSetupMode) – 用于创建Astra DB集合的模式(SYNC、ASYNC或OFF)。

  • pre_delete_collection (bool) – 是否在创建集合之前删除它。如果为False且集合已存在,则直接使用该集合。

  • embedding (Embeddings) – 用于语义编码和搜索的嵌入提供者。

  • metric (可选[str]) – 用于评估文本嵌入相似性的函数。 默认为‘cosine’(其他选项:‘euclidean’, ‘dot_product’)

  • similarity_threshold (float) – 接受(语义搜索)匹配的最小相似度。

方法

__init__(*[, collection_name, token, ...])

使用Astra DB作为向量存储后端的缓存,用于语义(即基于相似性)查找。

aclear(**kwargs)

异步清除缓存,可以接受额外的关键字参数。

adelete_by_document_id(document_id)

鉴于这是一个“相似性搜索”缓存,一个有意义的失效模式是首先查找以获取ID,然后使用该ID进行删除。

alookup(prompt, llm_string)

基于提示和llm_string的异步查找。

alookup_with_id(prompt, llm_string)

根据提示和llm_string进行查找。

alookup_with_id_through_llm(prompt, llm[, stop])

aupdate(prompt, llm_string, return_val)

基于提示和llm_string异步更新缓存。

clear(**kwargs)

清除可以接受额外关键字参数的缓存。

delete_by_document_id(document_id)

鉴于这是一个“相似性搜索”缓存,一个有意义的失效模式是首先查找以获取ID,然后使用该ID进行删除。

lookup(prompt, llm_string)

根据提示和llm_string进行查找。

lookup_with_id(prompt, llm_string)

根据提示和llm_string进行查找。

lookup_with_id_through_llm(prompt, llm[, stop])

update(prompt, llm_string, return_val)

根据提示和llm_string更新缓存。

__init__(*, collection_name: str = 'langchain_astradb_semantic_cache', token: str | None = None, api_endpoint: str | None = None, astra_db_client: AstraDB | None = None, async_astra_db_client: AsyncAstraDB | None = None, namespace: str | None = None, setup_mode: AstraSetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, embedding: Embeddings, metric: str | None = None, similarity_threshold: float = 0.85)[源代码]#

使用Astra DB作为向量存储后端的缓存,用于语义(即基于相似性)查找。

它使用一个单一的(向量)集合,并且可以存储来自多个LLM的缓存值,因此LLM的‘llm_string’存储在文档元数据中。

您可以选择首选的相似度(或使用API默认值)。 默认的分数阈值是针对默认度量进行调整的。 如果切换到其他距离度量,请仔细自行调整。

Parameters:
  • collection_name (str) – 要创建/使用的Astra DB集合的名称。

  • token (可选[str]) – 用于Astra DB的API令牌。

  • api_endpoint (可选[str]) – API端点的完整URL, 例如 https://-us-east1.apps.astra.datastax.com

  • astra_db_client (可选[AstraDB]) – 替代 token+api_endpoint, 你可以传递一个已经创建的 'astrapy.db.AstraDB' 实例。

  • async_astra_db_client (Optional[AsyncAstraDB]) – 替代token+api_endpoint, 你可以传递一个已经创建的‘astrapy.db.AsyncAstraDB’实例。

  • namespace (可选[str]) – 创建集合的命名空间(也称为keyspace)。默认为数据库的“默认命名空间”。

  • setup_mode (AstraSetupMode) – 用于创建Astra DB集合的模式(SYNC、ASYNC或OFF)。

  • pre_delete_collection (bool) – 是否在创建集合之前删除它。如果为False且集合已存在,则直接使用该集合。

  • embedding (Embeddings) – 用于语义编码和搜索的嵌入提供者。

  • metric (可选[str]) – 用于评估文本嵌入相似性的函数。 默认为‘cosine’(其他选项:‘euclidean’, ‘dot_product’)

  • similarity_threshold (float) – 接受(语义搜索)匹配的最小相似度。

async aclear(**kwargs: Any) None[source]#

异步清除缓存,可以接受额外的关键字参数。

Parameters:

kwargs (任意)

Return type:

async adelete_by_document_id(document_id: str) None[source]#

鉴于这是一个“相似性搜索”缓存,一个有意义的失效模式是首先查找以获取ID,然后使用该ID进行删除。这是针对第二步的。

Parameters:

document_id (str)

Return type:

async alookup(prompt: str, llm_string: str) Sequence[Generation] | None[来源]#

基于提示和llm_string的异步查找。

缓存实现预计会从提示和llm_string的二元组生成一个键(例如,通过用分隔符连接它们)。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

Returns:

在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。 缓存的值是 Generations(或其子类)的列表。

Return type:

序列[生成] | 无

async alookup_with_id(prompt: str, llm_string: str) Tuple[str, Sequence[Generation]] | None[source]#

根据提示和llm_string进行查找。 如果有匹配项,返回最匹配项的(document_id, cached_entry)

Parameters:
  • prompt (str)

  • llm_string (str)

Return type:

元组[str, 序列[生成]] | 无

async alookup_with_id_through_llm(prompt: str, llm: LLM, stop: List[str] | None = None) Tuple[str, Sequence[Generation]] | None[source]#
Parameters:
  • prompt (str)

  • llm (LLM)

  • stop (列表[字符串] | )

Return type:

元组[str, 序列[生成]] | 无

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]#

根据提示和llm_string异步更新缓存。

提示和llm_string用于生成缓存的键。 该键应与查找方法的键匹配。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。

Return type:

clear(**kwargs: Any) None[source]#

清除可以接受额外关键字参数的缓存。

Parameters:

kwargs (任意)

Return type:

delete_by_document_id(document_id: str) None[source]#

鉴于这是一个“相似性搜索”缓存,一个有意义的失效模式是首先查找以获取ID,然后使用该ID进行删除。这是针对第二步的。

Parameters:

document_id (str)

Return type:

lookup(prompt: str, llm_string: str) Sequence[Generation] | None[source]#

根据提示和llm_string进行查找。

缓存实现预计会从提示和llm_string的二元组生成一个键(例如,通过用分隔符连接它们)。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

Returns:

在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。 缓存的值是 Generations(或其子类)的列表。

Return type:

序列[生成] | 无

lookup_with_id(prompt: str, llm_string: str) Tuple[str, Sequence[Generation]] | None[source]#

根据提示和llm_string进行查找。 如果有匹配项,返回最匹配项的(document_id, cached_entry)

Parameters:
  • prompt (str)

  • llm_string (str)

Return type:

元组[str, 序列[生成]] | 无

lookup_with_id_through_llm(prompt: str, llm: LLM, stop: List[str] | None = None) Tuple[str, Sequence[Generation]] | None[source]#
Parameters:
  • prompt (str)

  • llm (LLM)

  • stop (列表[字符串] | )

Return type:

元组[str, 序列[生成]] | 无

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]#

根据提示和llm_string更新缓存。

提示和llm_string用于生成缓存的键。 该键应与查找方法的键匹配。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。

Return type: