更新缓存#

langchain_core.language_models.llms.update_cache(cache: BaseCache | bool | None, existing_prompts: dict[int, list], llm_string: str, missing_prompt_idxs: list[int], new_results: LLMResult, prompts: list[str]) dict | None[source]#

更新缓存并获取LLM输出。

Parameters:
  • cache (BaseCache | bool | None) – 缓存对象。

  • existing_prompts (dict[int, list]) – 现有提示的字典。

  • llm_string (str) – LLM 字符串。

  • missing_prompt_idxs (list[int]) – 缺失提示索引的列表。

  • new_results (LLMResult) – LLMResult 对象。

  • prompts (list[str]) – 提示列表。

Returns:

LLM 输出。

Raises:

ValueError – 如果缓存未设置且缓存为True。

Return type:

字典 | 无