更新缓存#
- langchain_core.language_models.llms.update_cache(cache: BaseCache | bool | None, existing_prompts: dict[int, list], llm_string: str, missing_prompt_idxs: list[int], new_results: LLMResult, prompts: list[str]) dict | None [source]#
更新缓存并获取LLM输出。
- Parameters:
- Returns:
LLM 输出。
- Raises:
ValueError – 如果缓存未设置且缓存为True。
- Return type:
字典 | 无