PromptLayer OpenAI
PromptLayer
是第一个允许您跟踪、管理和分享您的 GPT 提示工程的平台。PromptLayer
充当您的代码与 OpenAI’s
python 库之间的中间件。
PromptLayer
记录您所有的 OpenAI API
请求,允许您在 PromptLayer
仪表板中搜索和探索请求历史。
这个示例展示了如何连接到PromptLayer以开始记录您的OpenAI请求。
另一个例子是这里。
安装 PromptLayer
使用OpenAI时需要promptlayer
包。使用pip安装promptlayer
。
%pip install --upgrade --quiet promptlayer
导入
import os
import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API Reference:PromptLayerOpenAI
设置环境API密钥
您可以在www.promptlayer.com上通过点击导航栏中的设置齿轮来创建PromptLayer API密钥。
将其设置为名为PROMPTLAYER_API_KEY
的环境变量。
你还需要一个OpenAI密钥,称为OPENAI_API_KEY
。
from getpass import getpass
PROMPTLAYER_API_KEY = getpass()
········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass
OPENAI_API_KEY = getpass()
········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY
像平常一样使用 PromptLayerOpenAI LLM
你可以选择性地传入pl_tags
,以使用PromptLayer的标签功能来跟踪你的请求。
llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")
上述请求现在应该会出现在您的PromptLayer仪表板上。
使用 PromptLayer 跟踪
如果您想使用任何PromptLayer跟踪功能,您需要在实例化PromptLayer LLM时传递参数return_pl_id
以获取请求ID。
llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])
for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)
使用此功能可以让您在PromptLayer仪表板中跟踪模型的性能。如果您正在使用提示模板,您还可以将模板附加到请求中。 总的来说,这为您提供了在PromptLayer仪表板中跟踪不同模板和模型性能的机会。
相关
- LLM 概念指南
- LLM how-to guides