跳到主要内容
Open on GitHub

概念指南

本指南旨在解释 LangChain 框架以及更广泛的 AI 应用背后的关键概念。

我们建议您在深入概念指南之前,至少学习一篇教程。这将提供实践背景,有助于您更好地理解此处讨论的概念。

概念指南不包含分步说明或具体的实现示例——这些内容可在操作指南教程中找到。有关详细参考资料,请参阅API 参考

高级概述

概念

  • 聊天模型:通过聊天 API 暴露的 LLM,它们处理消息序列作为输入并输出一条消息。
  • 消息:聊天模型中的通信单位,用于表示模型输入和输出。
  • 聊天历史:以消息序列表示的对话,在用户消息和模型响应之间交替。
  • 工具:一个函数,带有相关的模式,定义了函数的名称、描述和它接受的参数。
  • 工具调用:一种聊天模型 API 类型,接受工具模式以及消息作为输入,并将这些工具的调用作为输出消息的一部分返回。
  • 结构化输出:一种使聊天模型以结构化格式(例如符合给定模式的 JSON)响应的技术。
  • 内存:关于对话的信息,被持久化以便在未来的对话中使用。
  • 多模态:处理不同形式(如文本、音频、图像和视频)数据的能力。
  • 可运行接口:许多 LangChain 组件和 LangChain 表达式语言所基于的基础抽象。
  • 流式传输:用于在结果生成时显示结果的 LangChain 流式 API。
  • LangChain 表达式语言 (LCEL):一种用于编排 LangChain 组件的语法。对于更简单的应用最有用。
  • 文档加载器:将源加载为文档列表。
  • 检索:信息检索系统可以根据查询从数据源检索结构化或非结构化数据。
  • 文本分割器:将长文本分割成较小的块,这些块可以单独索引以实现精细检索。
  • 嵌入模型:在向量空间中表示文本或图像等数据的模型。
  • 向量存储:向量和相关元数据的存储与高效搜索。
  • 检索器:一个组件,响应查询并从知识库中返回相关文档。
  • 检索增强生成 (RAG):一种通过将语言模型与外部知识库结合来增强其能力的技术。
  • 代理:使用语言模型来选择要采取的一系列行动。代理可以通过工具与外部资源交互。
  • 提示模板:用于提取模型“提示”(通常是消息序列)中静态部分的组件。对于这些静态部分的序列化、版本控制和重用非常有用。
  • 输出解析器:负责获取模型的输出并将其转换为更适合下游任务的格式。在工具调用结构化输出普遍可用之前,输出解析器主要有用。
  • 少样本提示:一种通过在提示中提供一些任务示例来提高模型性能的技术。
  • 示例选择器:用于根据给定输入从数据集中选择最相关的示例。示例选择器在少样本提示中用于为提示选择示例。
  • 异步编程:在异步上下文中使用 LangChain 应了解的基础知识。
  • 回调:回调允许在内置组件中执行自定义辅助代码。回调用于在 LangChain 中流式传输 LLM 的输出、跟踪应用程序的中间步骤等。
  • 追踪:记录应用程序从输入到输出所采取步骤的过程。追踪对于调试和诊断复杂应用程序中的问题至关重要。
  • 评估:评估 AI 应用程序性能和有效性的过程。这涉及根据一组预定义标准或基准测试模型的响应,以确保其达到所需的质量标准并实现预期目的。此过程对于构建可靠的应用程序至关重要。
  • 测试:验证集成或应用程序组件按预期工作的过程。测试对于确保应用程序行为正确以及代码库更改不会引入新错误至关重要。

词汇表

  • AIMessageChunk:AI 消息的部分响应。在从聊天模型流式传输响应时使用。
  • AIMessage:表示 AI 模型的完整响应。
  • astream_events:从 LCEL 链流式传输粒度信息。
  • BaseTool:LangChain 中所有工具的基类。
  • batch:用于以批处理输入执行可运行项。
  • bind_tools:允许模型与工具交互。
  • 缓存:存储结果以避免对聊天模型的重复调用。
  • 聊天模型:处理多种数据模态的聊天模型。
  • 可配置可运行项:创建可配置的可运行项。
  • 上下文窗口:聊天模型可以处理的最大输入大小。
  • 对话模式:聊天交互中的常见模式。
  • 文档:LangChain 的文档表示。
  • 嵌入模型:为各种数据类型生成向量嵌入的模型。
  • HumanMessage:表示来自人类用户的消息。
  • InjectedState:注入到工具函数中的状态。
  • InjectedStore:可以注入到工具中以进行数据持久化的存储。
  • InjectedToolArg:将参数注入工具函数的机制。
  • 输入和输出类型:用于 Runnables 中输入和输出的类型。
  • 集成包:与 LangChain 集成的第三方包。
  • 集成测试:验证组件之间交互正确性的测试,通常在能够访问支持集成的底层 API 的情况下运行。
  • invoke:调用 Runnable 的标准方法。
  • JSON 模式:以 JSON 格式返回响应。
  • langchain-community:LangChain 的社区驱动组件。
  • langchain-core:核心 langchain 包。包含基本接口和内存实现。
  • langchain:用于更高级组件(例如,一些预构建的链)的包。
  • langgraph:LangChain 的强大编排层。用于构建复杂的管道和工作流。
  • langserve:用于将 LangChain Runnables 部署为 REST 端点。使用 FastAPI。主要适用于 LangChain Runnables,目前不与 LangGraph 集成。
  • LLMs(旧版):接受字符串作为输入并返回字符串作为输出的旧版语言模型。
  • 管理聊天历史:维护和管理聊天历史的技术。
  • OpenAI 格式:OpenAI 用于聊天模型的消息格式。
  • RunnableConfig 的传播:通过 Runnables 传播配置。如果您使用 Python 3.9、3.10 和异步编程,请阅读此内容。
  • 速率限制:聊天模型的客户端速率限制。
  • RemoveMessage:一种用于从聊天历史中删除消息的抽象,主要用于 LangGraph。
  • 角色:表示聊天消息的角色(例如,用户、助手)。
  • RunnableConfig:用于向 Runnables 传递运行时信息(例如,run_namerun_idtagsmetadatamax_concurrencyrecursion_limitconfigurable)。
  • 聊天模型的标准参数:API 密钥、temperaturemax_tokens 等参数。
  • 标准测试:所有集成都必须通过的单元测试和集成测试的定义集合。
  • stream:用于从 Runnable 或图中流式传输输出。
  • Tokenization:将数据转换为令牌以及反向转换的过程。
  • 令牌:语言模型在底层读取、处理和生成的基本单位。
  • 工具工件:将工件添加到工具输出中,这些工件不会发送到模型,但可用于下游处理。
  • 工具绑定:将工具绑定到模型。
  • @tool:在 LangChain 中创建工具的装饰器。
  • 工具包:可以一起使用的一系列工具。
  • ToolMessage:表示包含工具执行结果的消息。
  • 单元测试:验证单个组件正确性的测试,在没有互联网访问的情况下独立运行。
  • 向量存储:专门用于存储和高效搜索向量嵌入的数据存储。
  • with_structured_output:一个辅助方法,用于原生支持工具调用的聊天模型,以获取与通过 Pydantic、JSON schema 或函数指定的给定模式匹配的结构化输出。
  • with_types:覆盖可运行项的输入和输出类型的方法。在处理复杂的 LCEL 链并使用 LangServe 部署时非常有用。