如何保存和加载LangChain对象
LangChain 类实现了标准的序列化方法。使用这些方法序列化 LangChain 对象具有一些优势:
- 密钥,如API密钥,与其他参数分开,并可以在反序列化时加载回对象;
- 反序列化在包版本之间保持兼容,因此使用一个版本的LangChain序列化的对象可以使用另一个版本正确反序列化。
要使用此系统保存和加载LangChain对象,请使用langchain-core
的load模块中的dumpd
、dumps
、load
和loads
函数。这些函数支持JSON和可JSON序列化的对象。
所有继承自Serializable的LangChain对象都是可JSON序列化的。示例包括消息、文档对象(例如,从检索器返回的),以及大多数Runnables,例如聊天模型、检索器和使用LangChain表达式语言实现的链。
下面我们通过一个简单的LLM链来演示一个例子。
caution
使用load
和loads
进行反序列化可以实例化任何可序列化的LangChain对象。仅在信任输入时使用此功能!
反序列化是一个测试版功能,可能会发生变化。
from langchain_core.load import dumpd, dumps, load, loads
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
prompt = ChatPromptTemplate.from_messages(
[
("system", "Translate the following into {language}:"),
("user", "{text}"),
],
)
llm = ChatOpenAI(model="gpt-4o-mini", api_key="llm-api-key")
chain = prompt | llm
保存对象
转换为JSON
string_representation = dumps(chain, pretty=True)
print(string_representation[:500])
{
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"schema",
"runnable",
"RunnableSequence"
],
"kwargs": {
"first": {
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"prompts",
"chat",
"ChatPromptTemplate"
],
"kwargs": {
"input_variables": [
"language",
"text"
],
"messages": [
{
"lc": 1,
"type": "constructor",
转换为可序列化为JSON的Python字典
dict_representation = dumpd(chain)
print(type(dict_representation))
<class 'dict'>
到磁盘
import json
with open("/tmp/chain.json", "w") as fp:
json.dump(string_representation, fp)
请注意,API密钥不会在序列化表示中显示。被视为机密的参数由LangChain对象的.lc_secrets
属性指定:
chain.last.lc_secrets
{'openai_api_key': 'OPENAI_API_KEY'}
加载对象
在load
和loads
中指定secrets_map
会将相应的密钥加载到反序列化的LangChain对象上。
从字符串
chain = loads(string_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})
从字典
chain = load(dict_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})
从磁盘
with open("/tmp/chain.json", "r") as fp:
chain = loads(json.load(fp), secrets_map={"OPENAI_API_KEY": "llm-api-key"})
请注意,我们恢复了指南开头指定的API密钥:
chain.last.openai_api_key.get_secret_value()
'llm-api-key'