Cerebras
在Cerebras,我们开发了世界上最大且最快的AI处理器,即Wafer-Scale Engine-3(WSE-3)。由WSE-3驱动的Cerebras CS-3系统代表了一类新的AI超级计算机,它以无与伦比的性能和可扩展性为生成式AI训练和推理设定了标准。
以Cerebras作为您的推理提供商,您可以:
- 为AI推理工作负载实现前所未有的速度
- 以高吞吐量进行商业构建
- 使用我们无缝的集群技术轻松扩展您的AI工作负载
我们的CS-3系统可以快速轻松地集群,创建世界上最大的人工智能超级计算机,使得放置和运行最大模型变得简单。领先的公司、研究机构和政府已经在使用Cerebras解决方案来开发专有模型并训练流行的开源模型。
想要体验Cerebras的强大功能吗?查看我们的网站获取更多资源,并探索通过Cerebras云或本地部署访问我们技术的选项!
有关Cerebras云的更多信息,请访问cloud.cerebras.ai。我们的API参考可在inference-docs.cerebras.ai找到。
安装与设置
安装集成包:
pip install langchain-cerebras
API 密钥
从cloud.cerebras.ai获取API密钥,并将其添加到您的环境变量中:
export CEREBRAS_API_KEY="your-api-key-here"
聊天模型
查看使用示例。