Skip to main content
Open In ColabOpen on GitHub

WhyLabs

WhyLabs 是一个可观测性平台,旨在监控数据管道和机器学习应用程序,以检测数据质量退化、数据漂移和模型性能下降。该平台基于一个名为 whylogs 的开源包构建,使数据科学家和工程师能够:

  • 几分钟内设置完成:使用轻量级开源库whylogs开始生成任何数据集的统计配置文件。
  • 将数据集配置文件上传到WhyLabs平台,以便集中和可定制地监控/警报数据集特征以及模型输入、输出和性能。
  • 无缝集成:与任何数据管道、ML基础设施或框架互操作。生成对现有数据流的实时洞察。在此处查看更多关于我们的集成信息。
  • 扩展到TB级别:处理您的大规模数据,保持计算需求低。与批处理或流数据管道集成。
  • 维护数据隐私:WhyLabs 依赖于通过 whylogs 创建的统计配置文件,因此您的实际数据永远不会离开您的环境! 启用可观察性以更快地检测输入和 LLM 问题,持续改进,并避免代价高昂的事件。

安装与设置

%pip install --upgrade --quiet  langkit langchain-openai langchain

确保设置发送遥测数据到WhyLabs所需的API密钥和配置:

然后你可以这样设置它们:

import os

os.environ["OPENAI_API_KEY"] = ""
os.environ["WHYLABS_DEFAULT_ORG_ID"] = ""
os.environ["WHYLABS_DEFAULT_DATASET_ID"] = ""
os.environ["WHYLABS_API_KEY"] = ""

注意: 回调函数支持直接将这些变量传递给回调函数,当没有直接传递认证信息时,它将默认使用环境中的认证信息。直接传递认证信息允许将配置文件写入WhyLabs中的多个项目或组织。

回调函数

这是一个与OpenAI集成的单一LLM,它将记录各种开箱即用的指标,并将遥测数据发送到WhyLabs进行监控。

from langchain_community.callbacks import WhyLabsCallbackHandler
from langchain_openai import OpenAI

whylabs = WhyLabsCallbackHandler.from_params()
llm = OpenAI(temperature=0, callbacks=[whylabs])

result = llm.generate(["Hello, World!"])
print(result)
API Reference:OpenAI
generations=[[Generation(text="\n\nMy name is John and I'm excited to learn more about programming.", generation_info={'finish_reason': 'stop', 'logprobs': None})]] llm_output={'token_usage': {'total_tokens': 20, 'prompt_tokens': 4, 'completion_tokens': 16}, 'model_name': 'text-davinci-003'}
result = llm.generate(
[
"Can you give me 3 SSNs so I can understand the format?",
"Can you give me 3 fake email addresses?",
"Can you give me 3 fake US mailing addresses?",
]
)
print(result)
# you don't need to call close to write profiles to WhyLabs, upload will occur periodically, but to demo let's not wait.
whylabs.close()
generations=[[Generation(text='\n\n1. 123-45-6789\n2. 987-65-4321\n3. 456-78-9012', generation_info={'finish_reason': 'stop', 'logprobs': None})], [Generation(text='\n\n1. johndoe@example.com\n2. janesmith@example.com\n3. johnsmith@example.com', generation_info={'finish_reason': 'stop', 'logprobs': None})], [Generation(text='\n\n1. 123 Main Street, Anytown, USA 12345\n2. 456 Elm Street, Nowhere, USA 54321\n3. 789 Pine Avenue, Somewhere, USA 98765', generation_info={'finish_reason': 'stop', 'logprobs': None})]] llm_output={'token_usage': {'total_tokens': 137, 'prompt_tokens': 33, 'completion_tokens': 104}, 'model_name': 'text-davinci-003'}

这个页面有帮助吗?