langchain_community.cache
.UpstashRedisCache¶
- class langchain_community.cache.UpstashRedisCache(redis_: Any, *, ttl: Optional[int] = None)[source]¶
使用Upstash Redis作为后端的缓存。
初始化一个 UpstashRedisCache 的实例。
该方法使用 Upstash Redis 缓存功能初始化一个对象。 它接受一个 redis_ 参数,该参数应该是一个 Upstash Redis 客户端类的实例,允许对象与 Upstash Redis 服务器进行交互以进行缓存操作。
- 参数:
- redis_: Upstash Redis 客户端类的实例
(例如,Redis) 用于缓存。 这允许对象与 Redis 服务器进行通信 以进行缓存操作。
- ttl (int, optional): 缓存项的生存时间(TTL)(以秒为单位)。
如果提供,它设置缓存项保持有效的时间段。 如果不提供,缓存项将不会 自动过期。
Methods
__init__
(redis_, *[, ttl])初始化一个 UpstashRedisCache 的实例。
aclear
(**kwargs)清除可以接受额外关键字参数的缓存。
alookup
(prompt, llm_string)根据提示和llm_string进行查找。
aupdate
(prompt, llm_string, return_val)根据提示和llm_string更新缓存。
clear
(**kwargs)清除缓存。如果`asynchronous`为True,则异步刷新。这将刷新*整个*数据库。
lookup
(prompt, llm_string)根据提示和llm_string进行查找。
update
(prompt, llm_string, return_val)根据提示和llm_string更新缓存。
- Parameters
redis_ (Any) –
ttl (Optional[int]) –
- __init__(redis_: Any, *, ttl: Optional[int] = None)[source]¶
初始化一个 UpstashRedisCache 的实例。
该方法使用 Upstash Redis 缓存功能初始化一个对象。 它接受一个 redis_ 参数,该参数应该是一个 Upstash Redis 客户端类的实例,允许对象与 Upstash Redis 服务器进行交互以进行缓存操作。
- 参数:
- redis_: Upstash Redis 客户端类的实例
(例如,Redis) 用于缓存。 这允许对象与 Redis 服务器进行通信 以进行缓存操作。
- ttl (int, optional): 缓存项的生存时间(TTL)(以秒为单位)。
如果提供,它设置缓存项保持有效的时间段。 如果不提供,缓存项将不会 自动过期。
- Parameters
redis_ (Any) –
ttl (Optional[int]) –
- async aclear(**kwargs: Any) None ¶
清除可以接受额外关键字参数的缓存。
- Parameters
kwargs (Any) –
- Return type
None
- async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]] ¶
根据提示和llm_string进行查找。
期望缓存实现从提示和llm_string的2元组中生成一个键(例如,通过使用分隔符将它们连接起来)。
- 参数:
- prompt:提示的字符串表示。
对于Chat模型,提示是将提示序列化为语言模型的非平凡表示。
- llm_string:LLM配置的字符串表示。
这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串表示。
- 返回:
在缓存未命中时,返回None。在缓存命中时,返回缓存的值。 缓存的值是Generations(或子类)的列表。
- Parameters
prompt (str) –
llm_string (str) –
- Return type
Optional[Sequence[Generation]]
- async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None ¶
根据提示和llm_string更新缓存。
提示和llm_string用于生成缓存的键。 键应该与查找方法的键匹配。
- 参数:
- prompt:提示的字符串表示。
对于Chat模型,提示是将提示序列化为语言模型的非平凡表示。
- llm_string:LLM配置的字符串表示。
这用于捕获LLM的调用参数 (例如,模型名称、温度、停止标记、最大标记等)。 这些调用参数被序列化为字符串表示。
return_val:要缓存的值。该值是Generations的列表(或子类)。
- Parameters
prompt (str) –
llm_string (str) –
return_val (Sequence[Generation]) –
- Return type
None
- clear(**kwargs: Any) None [source]¶
清除缓存。如果`asynchronous`为True,则异步刷新。这将刷新*整个*数据库。
- Parameters
kwargs (Any) –
- Return type
None
- lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]] [source]¶
根据提示和llm_string进行查找。
- Parameters
prompt (str) –
llm_string (str) –
- Return type
Optional[Sequence[Generation]]
- update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None [source]¶
根据提示和llm_string更新缓存。
- Parameters
prompt (str) –
llm_string (str) –
return_val (Sequence[Generation]) –
- Return type
None