使用聊天模型和提示模板构建一个简单的LLM应用程序
在这个快速入门指南中,我们将向您展示如何使用 LangChain 构建一个简单的 LLM 应用程序。这个应用程序可以将文本从英语翻译成另一种语言。这是一个相对简单的 LLM 应用程序——它只是一个 LLM 调用加上一些提示。尽管如此,这仍然是开始使用 LangChain 的绝佳方式——许多功能都可以通过一些提示和一次 LLM 调用来构建!
阅读本教程后,您将对以下内容有一个高层次的概述:
让我们深入了解!
设置
Jupyter Notebook
本教程以及其他教程也许最方便在Jupyter notebooks中运行。在交互式环境中学习指南是更好地理解它们的绝佳方式。有关安装说明,请参见此处。
安装
要安装 LangChain,请运行
- Pip
- Conda
pip install langchain
conda install langchain -c conda-forge
更多详情,请参阅我们的安装指南。
LangSmith
您使用 LangChain 构建的许多应用程序将包含多个步骤,其中涉及 LLM 的多次调用。随着这些应用程序变得越来越复杂,能够检查您的链或代理内部究竟发生了什么变得至关重要。实现这一点的最佳方法是使用LangSmith。
在上述链接注册后,请务必设置您的环境变量以开始记录跟踪日志
export LANGSMITH_TRACING="true"
export LANGSMITH_API_KEY="..."
export LANGSMITH_PROJECT="default" # or any other project name
或者,如果在Notebook中,您可以这样设置
import getpass
import os
try:
# load environment variables from .env file (requires `python-dotenv`)
from dotenv import load_dotenv
load_dotenv()
except ImportError:
pass
os.environ["LANGSMITH_TRACING"] = "true"
if "LANGSMITH_API_KEY" not in os.environ:
os.environ["LANGSMITH_API_KEY"] = getpass.getpass(
prompt="Enter your LangSmith API key (optional): "
)
if "LANGSMITH_PROJECT" not in os.environ:
os.environ["LANGSMITH_PROJECT"] = getpass.getpass(
prompt='Enter your LangSmith Project Name (default = "default"): '
)
if not os.environ.get("LANGSMITH_PROJECT"):
os.environ["LANGSMITH_PROJECT"] = "default"
使用语言模型
首先,让我们学习如何单独使用语言模型。LangChain 支持多种不同的语言模型,您可以互换使用。有关特定模型入门的详细信息,请参阅支持的集成。
pip install -qU "langchain[google-genai]"
import getpass
import os
if not os.environ.get("GOOGLE_API_KEY"):
os.environ["GOOGLE_API_KEY"] = getpass.getpass("Enter API key for Google Gemini: ")
from langchain.chat_models import init_chat_model
model = init_chat_model("gemini-2.0-flash", model_provider="google_genai")
让我们首先直接使用模型。 ChatModels 是 LangChain Runnables 的实例,这意味着它们提供了一个标准的接口来与之交互。要简单地调用模型,我们可以将消息列表传递给 .invoke
方法。
from langchain_core.messages import HumanMessage, SystemMessage
messages = [
SystemMessage("Translate the following from English into Italian"),
HumanMessage("hi!"),
]
model.invoke(messages)
AIMessage(content='Ciao!', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 3, 'prompt_tokens': 20, 'total_tokens': 23, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'stop', 'logprobs': None}, id='run-32654a56-627c-40e1-a141-ad9350bbfd3e-0', usage_metadata={'input_tokens': 20, 'output_tokens': 3, 'total_tokens': 23, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})
如果启用了 LangSmith,我们可以看到此运行已记录到 LangSmith,并且可以查看LangSmith 跟踪。LangSmith 跟踪会报告token使用信息、延迟、标准模型参数(例如温度)以及其他信息。
请注意,ChatModels 接收消息对象作为输入并生成消息对象作为输出。除了文本内容外,消息对象还传递对话角色并保存重要数据,例如工具调用和 token 使用计数。
LangChain 也支持通过字符串或OpenAI 格式进行聊天模型输入。以下是等效的:
model.invoke("Hello")
model.invoke([{"role": "user", "content": "Hello"}])
model.invoke([HumanMessage("Hello")])
流式传输
由于聊天模型是Runnables,它们提供了一个标准的接口,包括异步和流式调用模式。这使我们能够从聊天模型中流式传输单个 token。
for token in model.stream(messages):
print(token.content, end="|")
|C|iao|!||
您可以在本指南中找到有关流式传输聊天模型输出的更多详细信息。
提示词模板
现在我们直接将消息列表传递给语言模型。这个消息列表从何而来?通常,它是由用户输入和应用程序逻辑的组合构建的。此应用程序逻辑通常获取原始用户输入并将其转换为准备传递给语言模型的消息列表。常见的转换包括添加系统消息或使用用户输入格式化模板。
提示词模板是 LangChain 中的一个概念,旨在协助这种转换。它们接收原始用户输入并返回准备好传递给语言模型的数据(一个提示)。
让我们在这里创建一个提示词模板。它将接收两个用户变量:
language
:要将文本翻译成的语言text
:要翻译的文本
from langchain_core.prompts import ChatPromptTemplate
system_template = "Translate the following from English into {language}"
prompt_template = ChatPromptTemplate.from_messages(
[("system", system_template), ("user", "{text}")]
)
请注意,ChatPromptTemplate
在单个模板中支持多种消息角色。我们将 language
参数格式化为系统消息,并将用户 text
格式化为用户消息。
此提示词模板的输入是一个字典。我们可以单独试用此提示词模板,看看它自身的功能:
prompt = prompt_template.invoke({"language": "Italian", "text": "hi!"})
prompt
ChatPromptValue(messages=[SystemMessage(content='Translate the following from English into Italian', additional_kwargs={}, response_metadata={}), HumanMessage(content='hi!', additional_kwargs={}, response_metadata={})])
我们可以看到它返回一个包含两条消息的 ChatPromptValue
。如果我们想直接访问这些消息,我们可以这样操作:
prompt.to_messages()
[SystemMessage(content='Translate the following from English into Italian', additional_kwargs={}, response_metadata={}),
HumanMessage(content='hi!', additional_kwargs={}, response_metadata={})]
最后,我们可以在格式化后的提示上调用聊天模型。
response = model.invoke(prompt)
print(response.content)
Ciao!
消息 content
可以包含文本和带有附加结构的内容块。有关更多信息,请参阅本指南。
如果我们查看LangSmith 跟踪,我们可以准确地看到聊天模型收到的提示,以及 token 使用信息、延迟、标准模型参数(例如温度)以及其他信息。
总结
就这样!在本教程中,您学习了如何创建您的第一个简单 LLM 应用程序。您学习了如何使用语言模型、如何创建提示词模板,以及如何使用 LangSmith 对您创建的应用程序进行出色的可观测性。
这只是您想成为一名熟练的 AI 工程师所需学习内容的冰山一角。幸运的是——我们还有许多其他资源!
有关 LangChain 核心概念的进一步阅读,我们提供了详细的《概念指南》。
如果您对这些概念有更具体的问题,请查看操作指南的以下部分:
以及 LangSmith 文档