Skip to main content
Open In ColabOpen on GitHub

如何保存和加载LangChain对象

LangChain 类实现了标准的序列化方法。使用这些方法序列化 LangChain 对象具有一些优势:

  • 密钥,如API密钥,与其他参数分开,并可以在反序列化时加载回对象;
  • 反序列化在包版本之间保持兼容,因此使用一个版本的LangChain序列化的对象可以使用另一个版本正确反序列化。

要使用此系统保存和加载LangChain对象,请使用langchain-coreload模块中的dumpddumpsloadloads函数。这些函数支持JSON和可JSON序列化的对象。

所有继承自Serializable的LangChain对象都是可JSON序列化的。示例包括消息文档对象(例如,从检索器返回的),以及大多数Runnables,例如聊天模型、检索器和使用LangChain表达式语言实现的

下面我们通过一个简单的LLM链来演示一个例子。

caution

使用loadloads进行反序列化可以实例化任何可序列化的LangChain对象。仅在信任输入时使用此功能!

反序列化是一个测试版功能,可能会发生变化。

from langchain_core.load import dumpd, dumps, load, loads
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

prompt = ChatPromptTemplate.from_messages(
[
("system", "Translate the following into {language}:"),
("user", "{text}"),
],
)

llm = ChatOpenAI(model="gpt-4o-mini", api_key="llm-api-key")

chain = prompt | llm

保存对象

转换为JSON

string_representation = dumps(chain, pretty=True)
print(string_representation[:500])
{
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"schema",
"runnable",
"RunnableSequence"
],
"kwargs": {
"first": {
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"prompts",
"chat",
"ChatPromptTemplate"
],
"kwargs": {
"input_variables": [
"language",
"text"
],
"messages": [
{
"lc": 1,
"type": "constructor",

转换为可序列化为JSON的Python字典

dict_representation = dumpd(chain)

print(type(dict_representation))
<class 'dict'>

到磁盘

import json

with open("/tmp/chain.json", "w") as fp:
json.dump(string_representation, fp)

请注意,API密钥不会在序列化表示中显示。被视为机密的参数由LangChain对象的.lc_secrets属性指定:

chain.last.lc_secrets
{'openai_api_key': 'OPENAI_API_KEY'}

加载对象

loadloads中指定secrets_map会将相应的密钥加载到反序列化的LangChain对象上。

从字符串

chain = loads(string_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})

从字典

chain = load(dict_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})

从磁盘

with open("/tmp/chain.json", "r") as fp:
chain = loads(json.load(fp), secrets_map={"OPENAI_API_KEY": "llm-api-key"})

请注意,我们恢复了指南开头指定的API密钥:

chain.last.openai_api_key.get_secret_value()
'llm-api-key'

这个页面有帮助吗?