如何保存和加载LangChain对象
LangChain 类实现了标准序列化方法。使用这些方法序列化 LangChain 对象具有以下优点:
- 密钥(例如 API 密钥)与其他参数分离,可以在反序列化时加载回对象;
- 反序列化在不同包版本之间保持兼容,因此用一个 LangChain 版本序列化的对象可以用另一个版本正确反序列化。
要使用此系统保存和加载 LangChain 对象,请使用 `langchain-core` 的 load 模块中的 `dumpd`、`dumps`、`load` 和 `loads` 函数。这些函数支持 JSON 和可 JSON 序列化的对象。
所有继承自 Serializable 的 LangChain 对象都是可 JSON 序列化的。示例包括消息、文档对象(例如,从检索器返回的),以及大多数可运行对象 (Runnables),如聊天模型、检索器和使用 LangChain 表达式语言实现的链 (chains)。
下面我们将通过一个简单的 LLM 链示例进行说明。
注意
使用 `load` 和 `loads` 进行反序列化可以实例化任何可序列化的 LangChain 对象。请仅对受信任的输入使用此功能!
反序列化是 Beta 版功能,可能会有所更改。
from langchain_core.load import dumpd, dumps, load, loads
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
prompt = ChatPromptTemplate.from_messages(
[
("system", "Translate the following into {language}:"),
("user", "{text}"),
],
)
llm = ChatOpenAI(model="gpt-4o-mini", api_key="llm-api-key")
chain = prompt | llm
保存对象
转换为 JSON
string_representation = dumps(chain, pretty=True)
print(string_representation[:500])
{
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"schema",
"runnable",
"RunnableSequence"
],
"kwargs": {
"first": {
"lc": 1,
"type": "constructor",
"id": [
"langchain",
"prompts",
"chat",
"ChatPromptTemplate"
],
"kwargs": {
"input_variables": [
"language",
"text"
],
"messages": [
{
"lc": 1,
"type": "constructor",
转换为可 JSON 序列化的 Python 字典
dict_representation = dumpd(chain)
print(type(dict_representation))
<class 'dict'>
保存到磁盘
import json
with open("/tmp/chain.json", "w") as fp:
json.dump(string_representation, fp)
请注意,API 密钥不会包含在序列化表示中。被视为秘密的参数由 LangChain 对象的 `.lc_secrets` 属性指定。
chain.last.lc_secrets
{'openai_api_key': 'OPENAI_API_KEY'}
加载对象
在 `load` 和 `loads` 中指定 `secrets_map` 将把相应的密钥加载到反序列化的 LangChain 对象上。
从字符串
chain = loads(string_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})
从字典
chain = load(dict_representation, secrets_map={"OPENAI_API_KEY": "llm-api-key"})
从磁盘
with open("/tmp/chain.json", "r") as fp:
chain = loads(json.load(fp), secrets_map={"OPENAI_API_KEY": "llm-api-key"})
请注意,我们恢复了本指南开头指定的 API 密钥。
chain.last.openai_api_key.get_secret_value()
'llm-api-key'