Cerebras
在 Cerebras,我们开发了全球最大、最快的 AI 处理器,即 Wafer-Scale Engine-3 (WSE-3)。Cerebras CS-3 系统由 WSE-3 提供支持,代表了一种新型 AI 超级计算机,它以无与伦比的性能和可扩展性,为生成式 AI 训练和推理设定了新标准。
将 Cerebras 作为您的推理提供商,您可以:
- 为 AI 推理工作负载实现前所未有的速度
- 以高吞吐量进行商业化构建
- 利用我们无缝的集群技术轻松扩展您的 AI 工作负载
我们的 CS-3 系统可以快速轻松地集群,以创建世界上最大的 AI 超级计算机,从而简化最大模型的部署和运行。领先的企业、研究机构和政府已在使用 Cerebras 解决方案来开发专有模型和训练流行的开源模型。
想体验 Cerebras 的强大功能吗?请访问我们的网站获取更多资源,并探索通过 Cerebras Cloud 或本地部署访问我们技术的选项!
有关 Cerebras Cloud 的更多信息,请访问cloud.cerebras.ai。我们的 API 参考文档可在inference-docs.cerebras.ai找到。
安装与设置
安装集成包
pip install langchain-cerebras
API 密钥
从cloud.cerebras.ai获取 API 密钥,并将其添加到您的环境变量中。
export CEREBRAS_API_KEY="your-api-key-here"
聊天模型
查看使用示例。