CouchbaseCache#
- class langchain_couchbase.cache.CouchbaseCache(cluster: Cluster, bucket_name: str, scope_name: str, collection_name: str, ttl: timedelta | None = None, **kwargs: Dict[str, Any])[source]#
Couchbase LLM 缓存 使用 Couchbase 作为后端的 LLM 缓存
初始化Couchbase LLM缓存 :param cluster: 具有活动连接的couchbase集群对象。 :type cluster: Cluster :param bucket_name: 存储文档的桶的名称。 :type bucket_name: str :param scope_name: 存储文档的桶中的范围的名称。 :type scope_name: str :param collection_name: 存储文档的范围中的集合的名称。
文档在。
- Parameters:
ttl (可选[timedelta]) – 文档在缓存中的生存时间 超过这个时间后,文档将从缓存中删除。
cluster (Cluster)
bucket_name (str)
scope_name (str)
collection_name (str)
kwargs (Dict[str, Any])
属性
LLM
PROMPT
RETURN_VAL
方法
__init__
(cluster, bucket_name, scope_name, ...)初始化 Couchbase LLM 缓存 :param cluster: 具有活动连接的 couchbase 集群对象。 :type cluster: Cluster :param bucket_name: 存储文档的桶的名称。 :type bucket_name: str :param scope_name: 存储文档的桶中的范围的名称。 :type scope_name: str :param collection_name: 存储文档的范围中的集合的名称。 :type collection_name: str :param ttl: 文档在缓存中存活的时间或 TTL 在此时间之后,文档将从缓存中删除。 :type ttl: Optional[timedelta].
aclear
(**kwargs)异步清除缓存,可以接受额外的关键字参数。
alookup
(prompt, llm_string)基于提示和llm_string的异步查找。
aupdate
(prompt, llm_string, return_val)基于提示和llm_string异步更新缓存。
clear
(**kwargs)清除缓存。
lookup
(prompt, llm_string)根据提示和llm_string从缓存中查找。
update
(prompt, llm_string, return_val)根据提示和llm_string更新缓存。
- __init__(cluster: Cluster, bucket_name: str, scope_name: str, collection_name: str, ttl: timedelta | None = None, **kwargs: Dict[str, Any]) None [source]#
初始化Couchbase LLM缓存 :param cluster: 具有活动连接的couchbase集群对象。 :type cluster: Cluster :param bucket_name: 存储文档的桶的名称。 :type bucket_name: str :param scope_name: 存储文档的桶中的范围的名称。 :type scope_name: str :param collection_name: 存储文档的范围中的集合的名称。
文档在。
- Parameters:
ttl (可选[timedelta]) – 文档在缓存中的生存时间 超过这个时间后,文档将从缓存中删除。
cluster (Cluster)
bucket_name (str)
scope_name (str)
collection_name (str)
kwargs (Dict[str, Any])
- Return type:
无
- async aclear(**kwargs: Any) None #
异步清除缓存,可以接受额外的关键字参数。
- Parameters:
kwargs (任意)
- Return type:
无
- async alookup(prompt: str, llm_string: str) Sequence[Generation] | None #
基于提示和llm_string的异步查找。
缓存实现预计会从提示和llm_string的二元组生成一个键(例如,通过用分隔符连接它们)。
- Parameters:
prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。
llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。
- Returns:
在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。 缓存的值是 Generations(或其子类)的列表。
- Return type:
序列[生成] | 无
- async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None #
根据提示和llm_string异步更新缓存。
提示和llm_string用于生成缓存的键。 该键应与查找方法的键匹配。
- Parameters:
prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。
llm_string (str) – LLM配置的字符串表示。 这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串 表示。
return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。
- Return type:
无
- clear(**kwargs: Any) None [source]#
清除缓存。 这将删除集合中的所有文档。这需要在集合上有一个索引。
- Parameters:
kwargs (任意)
- Return type:
无
- lookup(prompt: str, llm_string: str) Sequence[Generation] | None [source]#
根据提示和llm_string从缓存中查找。
- Parameters:
prompt (str)
llm_string (str)
- Return type:
序列[生成] | 无
- update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None [source]#
根据提示和llm_string更新缓存。
- Parameters:
prompt (str)
llm_string (str)
return_val (Sequence[Generation])
- Return type:
无