set_llm_cache# langchain_core.globals.set_llm_cache(value: BaseCache | None) → None[source]# 设置一个新的LLM缓存,覆盖之前的值(如果有的话)。 Parameters: value (BaseCache | None) – 要使用的新LLM缓存。如果为None,则禁用LLM缓存。 Return type: 无 使用 set_llm_cache 的示例 Astra DB Cassandra Couchbase DSPy 如何缓存LLM响应 如何缓存聊天模型响应 模型缓存 Momento MongoDB Atlas Redis