Skip to main content
Open on GitHub

Helicone

本页面介绍了如何在LangChain中使用Helicone生态系统。

什么是Helicone?

Helicone 是一个 开源 的可观测性平台,它代理您的 OpenAI 流量,并为您提供关于支出、延迟和使用情况的关键洞察。

Helicone仪表板的截图,显示每天的平均请求数、响应时间、每个响应的令牌数、总成本以及随时间变化的请求图表。

快速开始

使用您的LangChain环境,您只需添加以下参数。

export OPENAI_API_BASE="https://oai.hconeai.com/v1"

现在前往helicone.ai创建您的账户,并在我们的仪表板中添加您的OpenAI API密钥以查看您的日志。

在Helicone仪表板中输入和管理OpenAI API密钥的界面。

如何启用Helicone缓存

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))
API Reference:OpenAI

Helicone 缓存文档

如何使用Helicone自定义属性

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={
"Helicone-Property-Session": "24",
"Helicone-Property-Conversation": "support_issue_2",
"Helicone-Property-App": "mobile",
})
text = "What is a helicone?"
print(llm.invoke(text))
API Reference:OpenAI

Helicone 属性文档


这个页面有帮助吗?