Skip to main content
Open on GitHub

Cerebras

在Cerebras,我们开发了世界上最大且最快的AI处理器,即Wafer-Scale Engine-3(WSE-3)。由WSE-3驱动的Cerebras CS-3系统代表了一类新的AI超级计算机,它以无与伦比的性能和可扩展性为生成式AI训练和推理设定了标准。

以Cerebras作为您的推理提供商,您可以:

  • 为AI推理工作负载实现前所未有的速度
  • 以高吞吐量进行商业构建
  • 使用我们无缝的集群技术轻松扩展您的AI工作负载

我们的CS-3系统可以快速轻松地集群,创建世界上最大的人工智能超级计算机,使得放置和运行最大模型变得简单。领先的公司、研究机构和政府已经在使用Cerebras解决方案来开发专有模型并训练流行的开源模型。

想要体验Cerebras的强大功能吗?查看我们的网站获取更多资源,并探索通过Cerebras云或本地部署访问我们技术的选项!

有关Cerebras云的更多信息,请访问cloud.cerebras.ai。我们的API参考可在inference-docs.cerebras.ai找到。

安装与设置

安装集成包:

pip install langchain-cerebras

API 密钥

cloud.cerebras.ai获取API密钥,并将其添加到您的环境变量中:

export CEREBRAS_API_KEY="your-api-key-here"

聊天模型

查看使用示例


这个页面有帮助吗?