Skip to main content
Open In ColabOpen on GitHub

PromptLayer OpenAI

PromptLayer 是第一个允许您跟踪、管理和分享您的 GPT 提示工程的平台。PromptLayer 充当您的代码与 OpenAI’s python 库之间的中间件。

PromptLayer 记录您所有的 OpenAI API 请求,允许您在 PromptLayer 仪表板中搜索和探索请求历史。

这个示例展示了如何连接到PromptLayer以开始记录您的OpenAI请求。

另一个例子是这里

安装 PromptLayer

使用OpenAI时需要promptlayer包。使用pip安装promptlayer

%pip install --upgrade --quiet  promptlayer

导入

import os

import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API Reference:PromptLayerOpenAI

设置环境API密钥

您可以在www.promptlayer.com上通过点击导航栏中的设置齿轮来创建PromptLayer API密钥。

将其设置为名为PROMPTLAYER_API_KEY的环境变量。

你还需要一个OpenAI密钥,称为OPENAI_API_KEY

from getpass import getpass

PROMPTLAYER_API_KEY = getpass()
 ········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass

OPENAI_API_KEY = getpass()
 ········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY

像平常一样使用 PromptLayerOpenAI LLM

你可以选择性地传入pl_tags,以使用PromptLayer的标签功能来跟踪你的请求。

llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")

上述请求现在应该会出现在您的PromptLayer仪表板上。

使用 PromptLayer 跟踪

如果您想使用任何PromptLayer跟踪功能,您需要在实例化PromptLayer LLM时传递参数return_pl_id以获取请求ID。

llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])

for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)

使用此功能可以让您在PromptLayer仪表板中跟踪模型的性能。如果您正在使用提示模板,您还可以将模板附加到请求中。 总的来说,这为您提供了在PromptLayer仪表板中跟踪不同模板和模型性能的机会。


这个页面有帮助吗?