InMemoryCache#

class langchain_core.caches.InMemoryCache(*, maxsize: int | None = None)[source]#

缓存,将内容存储在内存中。

使用空缓存进行初始化。

Parameters:

maxsize (Optional[int]) – 缓存中存储的最大项目数。 如果为None,则缓存没有最大大小限制。 如果缓存超过最大大小,最旧的项目将被移除。 默认值为None。

Raises:

ValueError – 如果 maxsize 小于或等于 0。

方法

__init__(*[, maxsize])

使用空缓存进行初始化。

aclear(**kwargs)

异步清除缓存。

alookup(prompt, llm_string)

基于提示和llm_string的异步查找。

aupdate(prompt, llm_string, return_val)

基于提示和llm_string异步更新缓存。

clear(**kwargs)

清除缓存。

lookup(prompt, llm_string)

根据提示和llm_string进行查找。

update(prompt, llm_string, return_val)

根据提示和llm_string更新缓存。

__init__(*, maxsize: int | None = None) None[source]#

使用空缓存进行初始化。

Parameters:

maxsize (int | None) – 缓存中存储的最大项目数。 如果为None,则缓存没有最大大小限制。 如果缓存超过最大大小,则最旧的项目将被移除。 默认值为None。

Raises:

ValueError – 如果 maxsize 小于或等于 0。

Return type:

async aclear(**kwargs: Any) None[source]#

异步清除缓存。

Parameters:

kwargs (任意)

Return type:

async alookup(prompt: str, llm_string: str) Sequence[Generation] | None[source]#

基于提示和llm_string的异步查找。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。

Returns:

在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。

Return type:

序列[生成] | 无

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[来源]#

根据提示和llm_string异步更新缓存。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。

Return type:

clear(**kwargs: Any) None[source]#

清除缓存。

Parameters:

kwargs (任意)

Return type:

lookup(prompt: str, llm_string: str) Sequence[Generation] | None[source]#

根据提示和llm_string进行查找。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。

Returns:

在缓存未命中时,返回 None。在缓存命中时,返回缓存的值。

Return type:

序列[生成] | 无

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]#

根据提示和llm_string更新缓存。

Parameters:
  • prompt (str) – 提示的字符串表示。 在聊天模型的情况下,提示是将提示非平凡地序列化为语言模型。

  • llm_string (str) – LLM配置的字符串表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是一个Generations(或其子类)的列表。

Return type:

使用 InMemoryCache 的示例