跳到主要内容
Open In ColabOpen on GitHub

如何保存和加载LangChain对象

LangChain 类实现了标准序列化方法。使用这些方法序列化 LangChain 对象具有以下优点:

  • 密钥(例如 API 密钥)与其他参数分离,可以在反序列化时加载回对象;
  • 反序列化在不同包版本之间保持兼容,因此用一个 LangChain 版本序列化的对象可以用另一个版本正确反序列化。

要使用此系统保存和加载 LangChain 对象,请使用 `langchain-core` 的 load 模块中的 `dumpd`、`dumps`、`load` 和 `loads` 函数。这些函数支持 JSON 和可 JSON 序列化的对象。

所有继承自 Serializable 的 LangChain 对象都是可 JSON 序列化的。示例包括消息文档对象(例如,从检索器返回的),以及大多数可运行对象 (Runnables),如聊天模型、检索器和使用 LangChain 表达式语言实现的链 (chains)

下面我们将通过一个简单的 LLM 链示例进行说明。

注意

使用 `load` 和 `loads` 进行反序列化可以实例化任何可序列化的 LangChain 对象。请仅对受信任的输入使用此功能!

反序列化是 Beta 版功能,可能会有所更改。

from langchain_core.load import dumpd, dumps, load, loads
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

prompt = ChatPromptTemplate.from_messages(
[
("system", "Translate the following into {language}:"),
("user", "{text}"),
],
)

llm = ChatOpenAI(model="gpt-4o-mini", api_key="llm-api-key")

chain = prompt | llm

保存对象

转换为 JSON

string_representation = dumps(chain, pretty=True)
print(string_representation[:500])
{
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"schema",
"runnable",
"RunnableSequence"
],
"kwargs": {
"first": {
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"prompts",
"chat",
"ChatPromptTemplate"
],
"kwargs": {
"input_variables": [
"language",
"text"
],
"messages": [
{
"lc": 1,
"type": "constructor",

转换为可 JSON 序列化的 Python 字典

dict_representation = dumpd(chain)

print(type(dict_representation))
<class 'dict'>

保存到磁盘

import json

with open("/tmp/chain.json", "w") as fp:
json.dump(string_representation, fp)

请注意,API 密钥不会包含在序列化表示中。被视为秘密的参数由 LangChain 对象的 `.lc_secrets` 属性指定。

chain.last.lc_secrets
{'openai_api_key': 'OPENAI_API_KEY'}

加载对象

在 `load` 和 `loads` 中指定 `secrets_map` 将把相应的密钥加载到反序列化的 LangChain 对象上。

从字符串

chain = loads(string_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})

从字典

chain = load(dict_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})

从磁盘

with open("/tmp/chain.json", "r") as fp:
chain = loads(json.load(fp), secrets_map={"OPENAI_API_KEY": "llm-api-key"})

请注意,我们恢复了本指南开头指定的 API 密钥。

chain.last.openai_api_key.get_secret_value()
'llm-api-key'