跳到主要内容
Open In ColabOpen on GitHub

ChatDeepSeek

这将帮助您开始使用 DeepSeek 托管的 聊天模型。有关所有 ChatDeepSeek 功能和配置的详细文档,请访问 API 参考

提示

DeepSeek 的模型是开源的,可以本地运行(例如在 Ollama 中)或在其他推理提供商上运行(例如 FireworksTogether)。

概述

集成详情

本地可序列化JS 支持包下载量包最新版本
ChatDeepSeeklangchain-deepseekbetaPyPI - DownloadsPyPI - Version

模型功能

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式传输原生异步令牌使用量Logprobs
注意

DeepSeek-R1,通过 model="deepseek-reasoner" 指定,不支持工具调用或结构化输出。DeepSeek-V3(通过 model="deepseek-chat" 指定)支持这些功能。

设置

要访问 DeepSeek 模型,您需要创建一个 DeepSeek 帐户,获取 API 密钥,并安装 langchain-deepseek 集成包。

凭据

前往 DeepSeek 的 API 密钥页面 注册 DeepSeek 并生成 API 密钥。完成后,设置 DEEPSEEK_API_KEY 环境变量

import getpass
import os

if not os.getenv("DEEPSEEK_API_KEY"):
os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("Enter your DeepSeek API key: ")

如果您想获取模型调用的自动追踪,您还可以通过取消注释下方内容来设置您的 LangSmith API 密钥

# os.environ["LANGSMITH_TRACING"] = "true"
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain DeepSeek 集成位于 langchain-deepseek 包中

%pip install -qU langchain-deepseek

实例化

现在我们可以实例化我们的模型对象并生成聊天完成

from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
model="deepseek-chat",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
# other params...
)
API 参考:ChatDeepSeek

调用

messages = [
(
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
),
("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg.content

链接

我们可以像这样使用提示模板链接我们的模型

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate(
[
(
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
),
("human", "{input}"),
]
)

chain = prompt | llm
chain.invoke(
{
"input_language": "English",
"output_language": "German",
"input": "I love programming.",
}
)
API 参考:ChatPromptTemplate

API 参考

有关所有 ChatDeepSeek 功能和配置的详细文档,请访问 API 参考


此页内容是否对您有帮助?