Contextual AI Reranker
Contextual AI 的指令遵循重排序器是世界上首个旨在遵循关于如何根据特定标准(如新近度、来源和元数据)对文档进行优先级排序的自定义指令的重排序器。凭借在 BEIR 基准测试中的卓越性能(得分 61.2,并且显著优于竞争对手),它为企业 RAG 应用程序提供了前所未有的控制和准确性。
主要功能
- 指令遵循:通过自然语言命令动态控制文档排序
- 冲突解决:智能处理来自多个知识来源的矛盾信息
- 卓越的准确性:在行业基准测试中实现最先进的性能
- 无缝集成:RAG 管道中现有重排序器的直接替代品
该重排序器擅长解决企业知识库中的实际挑战,例如优先处理最近的文档而不是过时的文档,或优先考虑内部文档而不是外部来源。
要了解有关我们的指令遵循重排序器的更多信息并查看其应用示例,请访问我们的产品概述。
有关 Contextual AI 产品的全面文档,请访问我们的开发者门户。
此集成需要 contextual-client
Python SDK。在此处了解更多。
概述
此集成调用 Contextual AI 的 Grounded Language Model。
集成详情
类 | 包 | 本地 | 可序列化 | JS 支持 | 包下载量 | 包最新版本 |
---|---|---|---|---|---|---|
ContextualRerank | langchain-contextual | ❌ | beta | ❌ |
设置
要访问 Contextual 的重排序器模型,您需要创建一个 Contextual AI 账户,获取 API 密钥,并安装 langchain-contextual
集成包。
凭据
前往 app.contextual.ai 注册 Contextual 并生成 API 密钥。完成后,设置 CONTEXTUAL_AI_API_KEY 环境变量
import getpass
import os
if not os.getenv("CONTEXTUAL_AI_API_KEY"):
os.environ["CONTEXTUAL_AI_API_KEY"] = getpass.getpass(
"Enter your Contextual API key: "
)
安装
LangChain Contextual 集成位于 langchain-contextual
包中
%pip install -qU langchain-contextual
实例化
Contextual Reranker 的参数包括
参数 | 类型 | 描述 |
---|---|---|
documents | list[Document] | 要重排序的文档序列。文档中包含的任何元数据也将用于重排序。 |
query | str | 用于重排序的查询。 |
model | str | 要使用的重排序器的版本。目前,我们只有 "ctxl-rerank-en-v1-instruct"。 |
top_n | Optional[int] | 要返回的结果数量。如果为 None,则返回所有结果。默认为 self.top_n。 |
instruction | Optional[str] | 用于重排序器的指令。 |
callbacks | Optional[Callbacks] | 在压缩过程中运行的回调。 |
from langchain_contextual import ContextualRerank
api_key = ""
model = "ctxl-rerank-en-v1-instruct"
compressor = ContextualRerank(
model=model,
api_key=api_key,
)
使用方法
首先,我们将设置全局变量和我们将使用的示例,并实例化我们的重排序器客户端。
from langchain_core.documents import Document
query = "What is the current enterprise pricing for the RTX 5090 GPU for bulk orders?"
instruction = "Prioritize internal sales documents over market analysis reports. More recent documents should be weighted higher. Enterprise portal content supersedes distributor communications."
document_contents = [
"Following detailed cost analysis and market research, we have implemented the following changes: AI training clusters will see a 15% uplift in raw compute performance, enterprise support packages are being restructured, and bulk procurement programs (100+ units) for the RTX 5090 Enterprise series will operate on a $2,899 baseline.",
"Enterprise pricing for the RTX 5090 GPU bulk orders (100+ units) is currently set at $3,100-$3,300 per unit. This pricing for RTX 5090 enterprise bulk orders has been confirmed across all major distribution channels.",
"RTX 5090 Enterprise GPU requires 450W TDP and 20% cooling overhead.",
]
metadata = [
{
"Date": "January 15, 2025",
"Source": "NVIDIA Enterprise Sales Portal",
"Classification": "Internal Use Only",
},
{"Date": "11/30/2023", "Source": "TechAnalytics Research Group"},
{
"Date": "January 25, 2025",
"Source": "NVIDIA Enterprise Sales Portal",
"Classification": "Internal Use Only",
},
]
documents = [
Document(page_content=content, metadata=metadata[i])
for i, content in enumerate(document_contents)
]
reranked_documents = compressor.compress_documents(
query=query,
instruction=instruction,
documents=documents,
)
在链中使用
示例即将推出。
API 参考
有关所有 ChatContextual 功能和配置的详细文档,请访问 Github 页面:https://github.com/ContextualAI//langchain-contextual