跳到主要内容
Open In ColabOpen on GitHub

PromptLayer OpenAI

PromptLayer 是首个允许您追踪、管理和分享 GPT prompt 工程的平台。 PromptLayer 充当您的代码和 OpenAI python 库之间的中间件。

PromptLayer 记录您的所有 OpenAI API 请求,让您可以在 PromptLayer 仪表板中搜索和探索请求历史记录。

此示例展示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。

另一个示例请点击此处

安装 PromptLayer

使用 PromptLayer 和 OpenAI 需要 promptlayer 包。使用 pip 安装 promptlayer

%pip install --upgrade --quiet  promptlayer

导入

import os

import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API 参考:PromptLayerOpenAI

设置环境变量 API 密钥

您可以在 www.promptlayer.com 上点击导航栏中的设置齿轮来创建 PromptLayer API 密钥。

将其设置为名为 PROMPTLAYER_API_KEY 的环境变量。

您还需要一个 OpenAI 密钥,名为 OPENAI_API_KEY

from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
 ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
 ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

像往常一样使用 PromptLayerOpenAI LLM

您可以选择传入 pl_tags 以使用 PromptLayer 的标签功能来跟踪您的请求。

llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")

上述请求现在应该会出现在您的 PromptLayer 仪表板上。

使用 PromptLayer Track

如果您想使用任何 PromptLayer 跟踪功能,您需要在实例化 PromptLayer LLM 时传递参数 return_pl_id 以获取请求 ID。

llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能,您可以在 PromptLayer 仪表板中跟踪模型的性能。如果您正在使用 prompt 模板,您也可以将模板附加到请求。总的来说,这使您有机会在 PromptLayer 仪表板中跟踪不同模板和模型的性能。


此页面是否对您有帮助?