概念指南
本指南解释了 LangChain 框架和更广泛的 AI 应用背后的关键概念。
我们建议您在深入概念指南之前,至少阅读一篇教程。这将提供实际背景,使您更容易理解此处讨论的概念。
概念指南不包含逐步说明或具体的实现示例——这些内容可以在操作指南和教程中找到。有关详细的参考资料,请参阅API 参考。
高阶
- 为什么选择 LangChain?: 概述 LangChain 提供的价值。
- 架构: LangChain 生态系统中包的组织方式。
概念
- 聊天模型: 通过聊天 API 公开的 LLM,处理消息序列作为输入并输出消息。
- 消息: 聊天模型中通信的单元,用于表示模型输入和输出。
- 聊天历史记录: 一个对话,表示为消息序列,在用户消息和模型响应之间交替。
- 工具: 具有关联模式的函数,模式定义了函数的名称、描述以及它接受的参数。
- 工具调用: 一种聊天模型 API,它接受工具模式以及消息作为输入,并在输出消息中返回这些工具的调用。
- 结构化输出: 使聊天模型以结构化格式(例如与给定模式匹配的 JSON)响应的技术。
- 记忆: 关于对话的信息,这些信息被持久化,以便在未来的对话中使用。
- 多模态: 处理以不同形式出现的数据(例如文本、音频、图像和视频)的能力。
- Runnable 接口: 许多 LangChain 组件和 LangChain 表达式语言构建于其上的基本抽象。
- 流式传输: LangChain 流式传输 API,用于在生成结果时显示结果。
- LangChain 表达式语言 (LCEL): 用于编排 LangChain 组件的语法。对于更简单的应用程序最有用。
- 文档加载器: 将源加载为文档列表。
- 检索: 信息检索系统可以响应查询,从数据源检索结构化或非结构化数据。
- 文本分割器: 将长文本分割成更小的块,可以单独索引这些块以实现细粒度检索。
- 嵌入模型: 将文本或图像等数据表示在向量空间中的模型。
- 向量存储: 向量及其关联元数据的存储和高效搜索。
- 检索器: 一种组件,用于响应查询,从知识库返回相关文档。
- 检索增强生成 (RAG): 一种通过将语言模型与外部知识库相结合来增强语言模型的技术。
- Agents(代理): 使用语言模型来选择要采取的一系列操作。Agents 可以通过工具与外部资源交互。
- 提示模板: 用于分解模型“提示”(通常是消息序列)的静态部分的组件。对于序列化、版本控制和重用这些静态部分很有用。
- 输出解析器: 负责获取模型的输出并将其转换为更适合下游任务的格式。在工具调用和结构化输出普遍可用之前,输出解析器主要有用。
- 少量示例提示: 一种通过在提示中提供少量执行任务的示例来提高模型性能的技术。
- 示例选择器: 用于根据给定的输入从数据集中选择最相关的示例。示例选择器在少量示例提示中用于为提示选择示例。
- 异步编程: 在异步上下文中使用 LangChain 应该知道的基础知识。
- 回调: 回调允许在内置组件中执行自定义辅助代码。回调用于在 LangChain 中流式传输 LLM 的输出、跟踪应用程序的中间步骤等等。
- 追踪: 记录应用程序从输入到输出所采取步骤的过程。追踪对于调试和诊断复杂应用程序中的问题至关重要。
- 评估: 评估 AI 应用程序的性能和有效性的过程。这涉及根据一组预定义的标准或基准测试模型的响应,以确保其满足期望的质量标准并实现预期的目的。此过程对于构建可靠的应用程序至关重要。
- 测试: 验证集成或应用程序的组件是否按预期工作的过程。测试对于确保应用程序行为正确以及对代码库的更改不会引入新错误至关重要。
词汇表
- AIMessageChunk: 来自 AI 消息的部分响应。在流式传输来自聊天模型的响应时使用。
- AIMessage: 表示来自 AI 模型的完整响应。
- astream_events: 从 LCEL 链流式传输细粒度信息。
- BaseTool: LangChain 中所有工具的基类。
- batch: 用于使用批量输入执行 runnable。
- bind_tools: 允许模型与工具交互。
- 缓存: 存储结果以避免对聊天模型进行冗余调用。
- 聊天模型: 处理多种数据模态的聊天模型。
- 可配置的 runnables: 创建可配置的 Runnables。
- 上下文窗口: 聊天模型可以处理的最大输入大小。
- 对话模式: 聊天交互中的常见模式。
- Document: LangChain 对文档的表示。
- 嵌入模型: 为各种数据类型生成向量嵌入的模型。
- HumanMessage: 表示来自人类用户的消息。
- InjectedState: 注入到工具函数中的状态。
- InjectedStore: 可以注入到工具中以进行数据持久化的存储。
- InjectedToolArg: 将参数注入到工具函数中的机制。
- 输入和输出类型: 用于 Runnables 中输入和输出的类型。
- 集成包: 与 LangChain 集成的第三方包。
- 集成测试: 验证组件之间交互正确性的测试,通常在访问为集成提供支持的底层 API 的情况下运行。
- invoke: 调用 Runnable 的标准方法。
- JSON 模式: 以 JSON 格式返回响应。
- langchain-community: 社区驱动的 LangChain 组件。
- langchain-core: 核心 langchain 包。包括基本接口和内存实现。
- langchain: 用于更高级别组件(例如,一些预构建链)的包。
- langgraph: LangChain 的强大编排层。用于构建复杂的管道和工作流程。
- langserve: 用于将 LangChain Runnables 部署为 REST 端点。使用 FastAPI。主要适用于 LangChain Runnables,目前不与 LangGraph 集成。
- LLM(旧版): 较旧的语言模型,它接受字符串作为输入并返回字符串作为输出。
- 管理聊天历史记录: 维护和管理聊天历史记录的技术。
- OpenAI 格式: OpenAI 用于聊天模型的消息格式。
- RunnableConfig 的传播: 通过 Runnables 传播配置。如果使用 python 3.9、3.10 和 async,请阅读。
- 速率限制: 聊天模型的客户端速率限制。
- RemoveMessage: 用于从聊天历史记录中删除消息的抽象,主要在 LangGraph 中使用。
- 角色: 表示聊天消息的角色(例如,用户、助手)。
- RunnableConfig: 用于将运行时信息传递给 Runnables(例如,
run_name
、run_id
、tags
、metadata
、max_concurrency
、recursion_limit
、configurable
)。 - 聊天模型的标准参数: 参数,例如 API 密钥、
temperature
和max_tokens
。 - 标准测试: 所有集成都必须通过的一组已定义的单元测试和集成测试。
- stream: 用于流式传输来自 Runnable 或图的输出。
- Tokenization(分词): 将数据转换为 token 以及反向转换的过程。
- Tokens(令牌): 语言模型在底层读取、处理和生成的基本单元。
- 工具工件: 将工件添加到工具的输出中,这些工件不会发送到模型,但可用于下游处理。
- 工具绑定: 将工具绑定到模型。
- @tool: 用于在 LangChain 中创建工具的装饰器。
- 工具包: 可以一起使用的一组工具。
- ToolMessage: 表示包含工具执行结果的消息。
- 单元测试: 验证各个组件正确性的测试,在隔离环境中运行,无法访问互联网。
- 向量存储: 专门用于存储和高效搜索向量嵌入的数据存储。
- with_structured_output: 一种聊天模型的辅助方法,该模型原生支持工具调用,以获取与给定模式匹配的结构化输出,该模式通过 Pydantic、JSON 模式或函数指定。
- with_types: 用于覆盖 runnable 的输入和输出类型的方法。在处理复杂的 LCEL 链并使用 LangServe 部署时很有用。