简介
LangChain 是一个用于开发由大型语言模型(LLMs)驱动的应用程序的框架。
LangChain 简化了 LLM 应用程序生命周期的每个阶段
- 开发:使用 LangChain 的开源组件和第三方集成构建您的应用程序。使用LangGraph来构建支持一流流式传输和人工干预的有状态智能体。
- 生产化:使用LangSmith来检查、监控和评估您的应用程序,以便您可以持续优化并自信地部署。
- 部署:使用LangGraph Platform将您的 LangGraph 应用程序转化为可用于生产的 API 和助手。
LangChain 为大型语言模型及相关技术(如嵌入模型和向量存储)实现了标准接口,并集成了数百家提供商。有关更多信息,请参阅集成页面。
pip install -qU "langchain[google-genai]"
import getpass
import os
if not os.environ.get("GOOGLE_API_KEY"):
os.environ["GOOGLE_API_KEY"] = getpass.getpass("Enter API key for Google Gemini: ")
from langchain.chat_models import init_chat_model
model = init_chat_model("gemini-2.0-flash", model_provider="google_genai")
model.invoke("Hello, world!")
这些文档侧重于 Python LangChain 库。点击此处查看 JavaScript LangChain 库的文档。
架构
LangChain 框架由多个开源库组成。更多内容请参见架构页面。
langchain-core
:聊天模型和其他组件的基础抽象。- 集成包(例如
langchain-openai
、langchain-anthropic
等):重要的集成已被拆分为轻量级包,由 LangChain 团队和集成开发者共同维护。 langchain
:构成应用程序认知架构的链、智能体和检索策略。langchain-community
:由社区维护的第三方集成。langgraph
:用于将 LangChain 组件组合成具有持久性、流式传输和其他关键功能的生产就绪应用程序的编排框架。请参阅LangGraph 文档。
指南
教程
如果您想构建特定内容或更喜欢动手学习,请查看我们的教程部分。这是开始的最佳位置。
这些是入门的最佳选择
在此处探索 LangChain 教程的完整列表,并在此处查看其他LangGraph 教程。要了解更多关于 LangGraph 的信息,请查看我们的第一个 LangChain 学院课程,LangGraph 简介,可在此处获得。
操作指南
在此处您将找到“我该如何……?”类型问题的简短答案。这些操作指南不深入探讨主题——您可以在教程和API 参考中找到这些材料。但是,这些指南将帮助您使用聊天模型、向量存储以及其他常用 LangChain 组件快速完成常见任务。
在此处查看LangGraph 特定操作指南。
概念指南
介绍您需要了解的 LangChain 所有关键部分!在此处您将找到所有 LangChain 概念的高级解释。
要深入了解 LangGraph 概念,请查看此页面。
集成
LangChain 是一个丰富的工具生态系统的一部分,这些工具与我们的框架集成并在此基础上构建。如果您想快速开始使用特定提供商的聊天模型、向量存储或其他 LangChain 组件,请查看我们不断增长的集成列表。
API 参考
前往参考部分,查看 LangChain Python 包中所有类和方法的完整文档。
生态系统
🦜🛠️ LangSmith
跟踪和评估您的语言模型应用程序和智能体,帮助您从原型阶段走向生产。
🦜🕸️ LangGraph
使用 LLM 构建有状态、多角色的应用程序。它与 LangChain 完美集成,但也可以独立使用。LangGraph 为生产级智能体提供支持,受到 Linkedin、Uber、Klarna、GitLab 等众多公司的信任。
更多资源
版本
查看 v0.3 中的变化,了解如何迁移旧代码,阅读我们的版本控制策略等。
安全
阅读有关安全的最佳实践,以确保您安全地使用 LangChain 进行开发。
贡献
查阅开发者指南,了解贡献指南并获得开发环境设置帮助。