跳到主要内容

PromptLayer OpenAI

PromptLayer 是第一个允许您跟踪、管理和共享 GPT 提示工程的平台。 PromptLayer 充当您的代码和 OpenAI’s python 库之间的中间件。

PromptLayer 记录您所有的 OpenAI API 请求,允许您在 PromptLayer 仪表板中搜索和浏览请求历史记录。

此示例展示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。

另一个示例在这里

安装 PromptLayer

需要 promptlayer 包才能将 PromptLayer 与 OpenAI 一起使用。 使用 pip 安装 promptlayer

%pip install --upgrade --quiet  promptlayer

导入

import os

import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API 参考:PromptLayerOpenAI

设置环境变量 API 密钥

您可以在 www.promptlayer.com 上通过单击导航栏中的设置齿轮来创建 PromptLayer API 密钥。

将其设置为名为 PROMPTLAYER_API_KEY 的环境变量。

您还需要一个 OpenAI 密钥,称为 OPENAI_API_KEY

from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
 ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
 ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

像往常一样使用 PromptLayerOpenAI LLM

您可以选择传入 pl_tags 以使用 PromptLayer 的标记功能来跟踪您的请求。

llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")

上面的请求现在应该出现在您的 PromptLayer 仪表板上。

使用 PromptLayer 跟踪

如果您想使用任何 PromptLayer 跟踪功能,您需要在实例化 PromptLayer LLM 时传递参数 return_pl_id 以获取请求 ID。

llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能可以跟踪模型在 PromptLayer 仪表板中的性能。如果您使用提示模板,您也可以将模板附加到请求。总的来说,这使您有机会跟踪 PromptLayer 仪表板中不同模板和模型的性能。


此页面是否对您有帮助?