跳到主要内容
Open In ColabOpen on GitHub

AzureAIChatCompletionsModel

这将帮助您开始使用 AzureAIChatCompletionsModel 聊天模型。有关所有 AzureAIChatCompletionsModel 功能和配置的详细文档,请查阅API 参考

AzureAIChatCompletionsModel 类使用 Azure AI Foundry SDK。AI Foundry 包含多种聊天模型,包括 AzureOpenAI、Cohere、Llama、Phi-3/4 和 DeepSeek-R1 等。您可以在Azure 文档中找到有关其最新模型及其成本、上下文窗口和支持的输入类型的信息。

概述

集成详情

类别本地可序列化JS 支持包下载量最新包版本
AzureAIChatCompletionsModellangchain-azure-aiPyPI - DownloadsPyPI - Version

模型特性

工具调用结构化输出JSON 模式图片输入音频输入视频输入逐令牌流式传输原生异步令牌使用量对数概率

设置

要访问 AzureAIChatCompletionsModel 模型,您需要创建一个Azure 帐户,获取 API 密钥,并安装 langchain-azure-ai 集成包。

凭证

请查阅Azure 文档以了解如何创建部署并生成 API 密钥。模型部署后,在 AI Foundry 中点击“获取终结点”按钮。这将显示您的终结点和 API 密钥。完成此操作后,请设置 AZURE_INFERENCE_CREDENTIAL 和 AZURE_INFERENCE_ENDPOINT 环境变量。

import getpass
import os

if not os.getenv("AZURE_INFERENCE_CREDENTIAL"):
os.environ["AZURE_INFERENCE_CREDENTIAL"] = getpass.getpass(
"Enter your AzureAIChatCompletionsModel API key: "
)

if not os.getenv("AZURE_INFERENCE_ENDPOINT"):
os.environ["AZURE_INFERENCE_ENDPOINT"] = getpass.getpass(
"Enter your model endpoint: "
)

如果您想对模型调用进行自动化跟踪,还可以通过取消注释下方代码来设置您的LangSmith API 密钥。

# os.environ["LANGSMITH_TRACING"] = "true"
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain AzureAIChatCompletionsModel 集成位于 langchain-azure-ai 包中。

%pip install -qU langchain-azure-ai

实例化

现在我们可以实例化模型对象并生成聊天补全

from langchain_azure_ai.chat_models import AzureAIChatCompletionsModel

llm = AzureAIChatCompletionsModel(
model_name="gpt-4",
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
)

调用

messages = [
(
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
),
("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg
AIMessage(content="J'adore programmer.", additional_kwargs={}, response_metadata={'model': 'gpt-4o-2024-05-13', 'token_usage': {'input_tokens': 31, 'output_tokens': 4, 'total_tokens': 35}, 'finish_reason': 'stop'}, id='run-c082dffd-b1de-4b3f-943f-863836663ddb-0', usage_metadata={'input_tokens': 31, 'output_tokens': 4, 'total_tokens': 35})
print(ai_msg.content)
J'adore programmer.

链式调用

我们可以像这样将模型与提示模板链式连接起来

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate(
[
(
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
),
("human", "{input}"),
]
)

chain = prompt | llm
chain.invoke(
{
"input_language": "English",
"output_language": "German",
"input": "I love programming.",
}
)
API 参考:ChatPromptTemplate
AIMessage(content='Ich liebe Programmieren.', additional_kwargs={}, response_metadata={'model': 'gpt-4o-2024-05-13', 'token_usage': {'input_tokens': 26, 'output_tokens': 5, 'total_tokens': 31}, 'finish_reason': 'stop'}, id='run-01ba6587-6ff4-4554-8039-13204a7d95db-0', usage_metadata={'input_tokens': 26, 'output_tokens': 5, 'total_tokens': 31})

API 参考

有关 AzureAIChatCompletionsModel 所有功能和配置的详细文档,请查阅 API 参考: https://python.langchain.ac.cn/api_reference/azure_ai/chat_models/langchain_azure_ai.chat_models.AzureAIChatCompletionsModel.html