智谱 AI
此笔记本展示了如何在 LangChain 中使用 ZHIPU AI API,使用 langchain.chat_models.ChatZhipuAI。
GLM-4 是一种与人类意图一致的多语言大型语言模型,具有问答、多轮对话和代码生成等功能。与上一代相比,新一代基模型 GLM-4 的整体性能得到了显着提升,支持更长的上下文;更强大的多模态;支持更快的推理速度,更高的并发性,大幅降低推理成本;同时,GLM-4 增强了智能代理的能力。
入门
安装
首先,确保在您的 Python 环境中安装了 zhipuai 包。运行以下命令
#!pip install --upgrade httpx httpx-sse PyJWT
导入所需模块
安装后,将必要的模块导入您的 Python 脚本
from langchain_community.chat_models import ChatZhipuAI
from langchain_core.messages import AIMessage, HumanMessage, SystemMessage
设置您的 API 密钥
登录 ZHIPU AI 获取 API 密钥以访问我们的模型。
import os
os.environ["ZHIPUAI_API_KEY"] = "zhipuai_api_key"
初始化 ZHIPU AI 聊天模型
以下是初始化聊天模型的方法
chat = ChatZhipuAI(
model="glm-4",
temperature=0.5,
)
基本用法
使用系统和人类消息调用模型,如下所示
messages = [
AIMessage(content="Hi."),
SystemMessage(content="Your role is a poet."),
HumanMessage(content="Write a short poem about AI in four lines."),
]
response = chat.invoke(messages)
print(response.content) # Displays the AI-generated poem
高级功能
流式支持
对于连续交互,请使用流式功能
from langchain_core.callbacks.manager import CallbackManager
from langchain_core.callbacks.streaming_stdout import StreamingStdOutCallbackHandler
streaming_chat = ChatZhipuAI(
model="glm-4",
temperature=0.5,
streaming=True,
callback_manager=CallbackManager([StreamingStdOutCallbackHandler()]),
)
streaming_chat(messages)
异步调用
对于非阻塞调用,请使用异步方法
async_chat = ChatZhipuAI(
model="glm-4",
temperature=0.5,
)
response = await async_chat.agenerate([messages])
print(response)
与函数调用一起使用
GLM-4 模型也可以与函数调用一起使用,使用以下代码运行一个简单的 LangChain json_chat_agent。
os.environ["TAVILY_API_KEY"] = "tavily_api_key"
from langchain import hub
from langchain.agents import AgentExecutor, create_json_chat_agent
from langchain_community.tools.tavily_search import TavilySearchResults
tools = [TavilySearchResults(max_results=1)]
prompt = hub.pull("hwchase17/react-chat-json")
llm = ChatZhipuAI(temperature=0.01, model="glm-4")
agent = create_json_chat_agent(llm, tools, prompt)
agent_executor = AgentExecutor(
agent=agent, tools=tools, verbose=True, handle_parsing_errors=True
)
agent_executor.invoke({"input": "what is LangChain?"})