如何保存和加载 LangChain 对象
LangChain 类实现了用于序列化的标准方法。使用这些方法序列化 LangChain 对象具有一些优势
- 诸如 API 密钥之类的机密与其它参数分开,并且可以在反序列化时加载回对象;
- 反序列化在不同软件包版本之间保持兼容,因此使用一个版本的 LangChain 序列化的对象可以使用另一个版本正确反序列化。
要使用此系统保存和加载 LangChain 对象,请使用 langchain-core
的 load 模块中的 dumpd
、dumps
、load
和 loads
函数。这些函数支持 JSON 和 JSON 可序列化对象。
所有继承自 Serializable 的 LangChain 对象都是 JSON 可序列化的。示例包括 消息、文档对象(例如,从检索器返回的文档对象)和大多数 可运行对象,例如聊天模型、检索器和使用 LangChain 表达式语言实现的链。
下面我们将通过一个简单的 LLM 链示例进行说明。
注意
使用 load
和 loads
进行反序列化可以实例化任何可序列化的 LangChain 对象。仅在信任的输入中使用此功能!
反序列化是一个测试版功能,可能会发生更改。
from langchain_core.load import dumpd, dumps, load, loads
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
prompt = ChatPromptTemplate.from_messages(
[
("system", "Translate the following into {language}:"),
("user", "{text}"),
],
)
llm = ChatOpenAI(model="gpt-4o-mini", api_key="llm-api-key")
chain = prompt | llm
保存对象
转换为 JSON
string_representation = dumps(chain, pretty=True)
print(string_representation[:500])
{
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"schema",
"runnable",
"RunnableSequence"
],
"kwargs": {
"first": {
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"prompts",
"chat",
"ChatPromptTemplate"
],
"kwargs": {
"input_variables": [
"language",
"text"
],
"messages": [
{
"lc": 1,
"type": "constructor",
转换为 JSON 可序列化的 Python 字典
dict_representation = dumpd(chain)
print(type(dict_representation))
<class 'dict'>
保存到磁盘
import json
with open("/tmp/chain.json", "w") as fp:
json.dump(string_representation, fp)
请注意,API 密钥不会包含在序列化表示中。被认为是秘密的参数由 LangChain 对象的 .lc_secrets
属性指定。
chain.last.lc_secrets
{'openai_api_key': 'OPENAI_API_KEY'}
加载对象
在 load
和 loads
中指定 secrets_map
会将相应的密钥加载到反序列化的 LangChain 对象上。
从字符串加载
chain = loads(string_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})
从字典加载
chain = load(dict_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})
从磁盘加载
with open("/tmp/chain.json", "r") as fp:
chain = loads(json.load(fp), secrets_map={"OPENAI_API_KEY": "llm-api-key"})
请注意,我们会恢复本指南开头指定的 API 密钥
chain.last.openai_api_key.get_secret_value()
'llm-api-key'