CassandraCache#

class langchain_community.cache.CassandraCache(session: CassandraSession | None = None, keyspace: str | None = None, table_name: str = 'langchain_llm_cache', ttl_seconds: int | None = None, skip_provisioning: bool = False, setup_mode: CassandraSetupMode = SetupMode.SYNC)[source]#

使用Cassandra / Astra DB作为后端的缓存。

示例

import cassio

from langchain_community.cache import CassandraCache
from langchain_core.globals import set_llm_cache

cassio.init(auto=True)  # Requires env. variables, see CassIO docs

set_llm_cache(CassandraCache())

它使用一个单一的Cassandra表。 查找键(形成主键的键)是:

  • prompt, 一个字符串

  • llm_string,模型参数的确定性字符串表示。 (需要防止相同提示不同模型冲突)

Parameters:
  • session (可选[CassandraSession]) – 一个打开的 Cassandra 会话。 留空以使用全局的 cassio 初始化(见下文)

  • keyspace (可选[str]) – 用于存储缓存的keyspace。 如果未指定,则使用全局的cassio初始化(见下文)

  • table_name (str) – 用作缓存的Cassandra表的名称

  • ttl_seconds (可选[int]) – 缓存条目的生存时间 (默认值: None, 即永久)

  • setup_mode (CassandraSetupMode) – langchain_community.utilities.cassandra.SetupMode 中的一个值。 在 SYNC、ASYNC 和 OFF 之间选择 - 如果 Cassandra 表已经存在,则选择后者以加快初始化速度。

  • skip_provisioning (bool)

注意

当省略会话和键空间参数(或传递为None)时,如果有可用的全局cassio设置,则会回退到这些设置。换句话说,如果之前在任何地方运行过‘cassio.init(…)’,那么基于Cassandra的对象根本不需要指定连接参数。

方法

__init__([session, keyspace, table_name, ...])

aclear(**kwargs)

清除缓存。

alookup(prompt, llm_string)

基于提示和llm_string的异步查找。

aupdate(prompt, llm_string, return_val)

基于提示和llm_string异步更新缓存。

clear(**kwargs)

清除缓存。

delete(prompt, llm_string)

如果缓存中有条目,则从缓存中移除。

delete_through_llm(prompt, llm[, stop])

一个围绕delete的包装器,传递了LLM。

lookup(prompt, llm_string)

根据提示和llm_string进行查找。

update(prompt, llm_string, return_val)

根据提示和llm_string更新缓存。

__init__(session: CassandraSession | None = None, keyspace: str | None = None, table_name: str = 'langchain_llm_cache', ttl_seconds: int | None = None, skip_provisioning: bool = False, setup_mode: CassandraSetupMode = SetupMode.SYNC)[源代码]#
Parameters:
  • session (可选[CassandraSession])

  • keyspace (可选[str])

  • table_name (str)

  • ttl_seconds (可选[int])

  • skip_provisioning (bool)

  • setup_mode (CassandraSetupMode)

async aclear(**kwargs: Any) None[source]#

清除缓存。这是一次性清除所有LLMs的缓存。

Parameters:

kwargs (任意)

Return type:

async alookup(prompt: str, llm_string: str) Sequence[Generation] | None[来源]#

基于提示和llm_string的异步查找。

缓存实现预计会从提示和llm_string的二元组生成一个键(例如,通过用分隔符连接它们)。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

Returns:

在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。 缓存的值是 Generations(或其子类)的列表。

Return type:

序列[生成] | 无

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[来源]#

根据提示和llm_string异步更新缓存。

提示和llm_string用于生成缓存的键。 该键应与查找方法的键匹配。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。

Return type:

clear(**kwargs: Any) None[source]#

清除缓存。这是一次性清除所有LLMs的缓存。

Parameters:

kwargs (任意)

Return type:

delete(prompt: str, llm_string: str) None[source]#

如果缓存中有条目,则从缓存中移除。

Parameters:
  • prompt (str)

  • llm_string (str)

Return type:

delete_through_llm(prompt: str, llm: LLM, stop: List[str] | None = None) None[source]#

一个围绕delete的包装器,传递了LLM。 如果llm.invoke(prompt)调用有stop参数,你应该在这里传递它

Parameters:
  • prompt (str)

  • llm (LLM)

  • stop (列表[字符串] | )

Return type:

lookup(prompt: str, llm_string: str) Sequence[Generation] | None[source]#

根据提示和llm_string进行查找。

缓存实现预计会从提示和llm_string的二元组生成一个键(例如,通过用分隔符连接它们)。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

Returns:

在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。 缓存的值是 Generations(或其子类)的列表。

Return type:

序列[生成] | 无

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]#

根据提示和llm_string更新缓存。

提示和llm_string用于生成缓存的键。 该键应与查找方法的键匹配。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。

Return type:

使用CassandraCache的示例