如何使用聊天模型调用工具
工具调用 允许聊天模型通过“调用工具”来响应给定的提示。
请记住,虽然“工具调用”这个名称暗示模型正在直接执行某些操作,但实际上并非如此!模型只会生成工具的参数,而实际运行工具(或不运行)则取决于用户。
工具调用是一种通用的技术,它从模型生成结构化输出,即使您不打算调用任何工具,也可以使用它。一个使用案例是 从非结构化文本中进行提取。
如果您想了解如何使用模型生成的工具调用来实际运行工具,请查看本指南。
工具调用并非普遍适用,但许多流行的 LLM 提供商都支持它。您可以找到 此处列出的所有支持工具调用的模型。
LangChain 实现标准接口来定义工具、将它们传递给 LLM 以及表示工具调用。本指南将介绍如何将工具绑定到 LLM,然后调用 LLM 来生成这些参数。
定义工具模式
为了让模型能够调用工具,我们需要传入工具模式(tool schemas),这些模式描述了工具的功能及其参数。支持工具调用功能的聊天模型实现了.bind_tools()
方法,用于将工具模式传递给模型。工具模式可以作为 Python 函数(带有类型提示和文档字符串)、Pydantic 模型、TypedDict 类或 LangChain 工具对象 传递。模型的后续调用会将这些工具模式与提示一起传入。
Python 函数
我们的工具模式可以是 Python 函数
# The function name, type hints, and docstring are all part of the tool
# schema that's passed to the model. Defining good, descriptive schemas
# is an extension of prompt engineering and is an important part of
# getting models to perform well.
def add(a: int, b: int) -> int:
"""Add two integers.
Args:
a: First integer
b: Second integer
"""
return a + b
def multiply(a: int, b: int) -> int:
"""Multiply two integers.
Args:
a: First integer
b: Second integer
"""
return a * b
LangChain 工具
LangChain 还实现了@tool
装饰器,允许进一步控制工具模式,例如工具名称和参数描述。有关详细信息,请参阅操作指南 此处。
Pydantic 类
您可以使用 Pydantic 等效地定义模式,而无需附带函数。
请注意,除非提供默认值,否则所有字段都是required
(必填)的。
from pydantic import BaseModel, Field
class add(BaseModel):
"""Add two integers."""
a: int = Field(..., description="First integer")
b: int = Field(..., description="Second integer")
class multiply(BaseModel):
"""Multiply two integers."""
a: int = Field(..., description="First integer")
b: int = Field(..., description="Second integer")
TypedDict 类
langchain-core>=0.2.25
或使用 TypedDict 和注解
from typing_extensions import Annotated, TypedDict
class add(TypedDict):
"""Add two integers."""
# Annotations must have the type and can optionally include a default value and description (in that order).
a: Annotated[int, ..., "First integer"]
b: Annotated[int, ..., "Second integer"]
class multiply(TypedDict):
"""Multiply two integers."""
a: Annotated[int, ..., "First integer"]
b: Annotated[int, ..., "Second integer"]
tools = [add, multiply]
要将这些模式实际绑定到聊天模型,我们将使用.bind_tools()
方法。这将处理将add
和multiply
模式转换为模型的正确格式。然后,每次调用模型时都会将工具模式传入。
- OpenAI
- Anthropic
- Azure
- Cohere
- NVIDIA
- FireworksAI
- Groq
- MistralAI
- TogetherAI
pip install -qU langchain-openai
import getpass
import os
os.environ["OPENAI_API_KEY"] = getpass.getpass()
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-4o-mini")
pip install -qU langchain-anthropic
import getpass
import os
os.environ["ANTHROPIC_API_KEY"] = getpass.getpass()
from langchain_anthropic import ChatAnthropic
llm = ChatAnthropic(model="claude-3-5-sonnet-20240620")
pip install -qU langchain-openai
import getpass
import os
os.environ["AZURE_OPENAI_API_KEY"] = getpass.getpass()
from langchain_openai import AzureChatOpenAI
llm = AzureChatOpenAI(
azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"],
azure_deployment=os.environ["AZURE_OPENAI_DEPLOYMENT_NAME"],
openai_api_version=os.environ["AZURE_OPENAI_API_VERSION"],
)
pip install -qU langchain-google-vertexai
import getpass
import os
os.environ["GOOGLE_API_KEY"] = getpass.getpass()
from langchain_google_vertexai import ChatVertexAI
llm = ChatVertexAI(model="gemini-1.5-flash")
pip install -qU langchain-cohere
import getpass
import os
os.environ["COHERE_API_KEY"] = getpass.getpass()
from langchain_cohere import ChatCohere
llm = ChatCohere(model="command-r-plus")
pip install -qU langchain-nvidia-ai-endpoints
import getpass
import os
os.environ["NVIDIA_API_KEY"] = getpass.getpass()
from langchain import ChatNVIDIA
llm = ChatNVIDIA(model="meta/llama3-70b-instruct")
pip install -qU langchain-fireworks
import getpass
import os
os.environ["FIREWORKS_API_KEY"] = getpass.getpass()
from langchain_fireworks import ChatFireworks
llm = ChatFireworks(model="accounts/fireworks/models/firefunction-v1", temperature=0)
pip install -qU langchain-groq
import getpass
import os
os.environ["GROQ_API_KEY"] = getpass.getpass()
from langchain_groq import ChatGroq
llm = ChatGroq(model="llama3-8b-8192")
pip install -qU langchain-mistralai
import getpass
import os
os.environ["MISTRAL_API_KEY"] = getpass.getpass()
from langchain_mistralai import ChatMistralAI
llm = ChatMistralAI(model="mistral-large-latest")
pip install -qU langchain-openai
import getpass
import os
os.environ["TOGETHER_API_KEY"] = getpass.getpass()
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://api.together.xyz/v1",
api_key=os.environ["TOGETHER_API_KEY"],
model="mistralai/Mixtral-8x7B-Instruct-v0.1",
)
llm_with_tools = llm.bind_tools(tools)
query = "What is 3 * 12?"
llm_with_tools.invoke(query)
AIMessage(content='', additional_kwargs={'tool_calls': [{'id': 'call_iXj4DiW1p7WLjTAQMRO0jxMs', 'function': {'arguments': '{"a":3,"b":12}', 'name': 'multiply'}, 'type': 'function'}], 'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 17, 'prompt_tokens': 80, 'total_tokens': 97}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_483d39d857', 'finish_reason': 'tool_calls', 'logprobs': None}, id='run-0b620986-3f62-4df7-9ba3-4595089f9ad4-0', tool_calls=[{'name': 'multiply', 'args': {'a': 3, 'b': 12}, 'id': 'call_iXj4DiW1p7WLjTAQMRO0jxMs', 'type': 'tool_call'}], usage_metadata={'input_tokens': 80, 'output_tokens': 17, 'total_tokens': 97})
我们可以看到我们的 LLM 生成了工具的参数!您可以查看 bind_tools() 的文档,了解自定义 LLM 选择工具的所有方法,以及 有关如何强制 LLM 调用工具 而不是让它自行决定的指南。
工具调用
如果工具调用包含在 LLM 响应中,则将其作为 消息 或 消息片段 中的 工具调用 对象列表附加到相应的.tool_calls
属性。
请注意,聊天模型可以一次调用多个工具。
ToolCall
是一个类型字典,其中包含工具名称、参数值的字典以及(可选)标识符。没有工具调用的消息默认为此属性的空列表。
query = "What is 3 * 12? Also, what is 11 + 49?"
llm_with_tools.invoke(query).tool_calls
[{'name': 'multiply',
'args': {'a': 3, 'b': 12},
'id': 'call_1fyhJAbJHuKQe6n0PacubGsL',
'type': 'tool_call'},
{'name': 'add',
'args': {'a': 11, 'b': 49},
'id': 'call_fc2jVkKzwuPWyU7kS9qn1hyG',
'type': 'tool_call'}]
.tool_calls
属性应包含有效的工具调用。请注意,有时模型提供程序可能会输出格式错误的工具调用(例如,无效的 JSON 参数)。在这些情况下,如果解析失败,则会在.invalid_tool_calls
属性中填充 InvalidToolCall 实例。InvalidToolCall
可以具有名称、字符串参数、标识符和错误消息。
解析
如果需要,输出解析器 可以进一步处理输出。例如,我们可以使用 PydanticToolsParser 将.tool_calls
上填充的现有值转换为 Pydantic 对象。
from langchain_core.output_parsers import PydanticToolsParser
from pydantic import BaseModel, Field
class add(BaseModel):
"""Add two integers."""
a: int = Field(..., description="First integer")
b: int = Field(..., description="Second integer")
class multiply(BaseModel):
"""Multiply two integers."""
a: int = Field(..., description="First integer")
b: int = Field(..., description="Second integer")
chain = llm_with_tools | PydanticToolsParser(tools=[add, multiply])
chain.invoke(query)
[multiply(a=3, b=12), add(a=11, b=49)]
后续步骤
现在您已经了解了如何将工具模式绑定到聊天模型并让模型调用工具。
接下来,查看此指南,了解如何通过调用函数并将结果传递回模型来实际使用工具
您还可以查看工具调用的更多特定用法