Company
Cerebras
晶圆级 AI 芯片制造商,从训练设备转向高吞吐量推理云,凭借 $10B+ OpenAI 合同冲刺 2026 年 Nasdaq IPO。
1. 核心产品 / 服务
Cerebras 构建 Wafer-Scale Engine (WSE-3) —— 占据完整 5nm 晶圆的单芯片,具有 4 万亿个晶体管、90 万 AI 核、44GB 片上 SRAM 和 125 PFLOPS 峰值 AI 性能。该芯片在 CS-3 设备内出货用于本地训练/微调,并为 Cerebras Inference(token 流式云服务)提供动力。
差异化在于将模型权重和激活保留在晶圆上:没有 PCIe/NVLink/HBM 瓶颈,顺序 token 生成接近线性扩展。公开基准显示 Llama 3.1-405B 上 969 t/s,Llama 3.1-70B 上约 2,100 t/s —— 在流式工作负载上比 GPU 栈快几个数量级。见 ai-inference-engines 了解它在推理栈格局中的位置。
2. 目标用户与痛点
两种不同的买家画像:
- 前沿实验室 / 主权云,希望大规模训练吞吐量而无需多机架网络复杂性(OpenAI、G42/Core42、MBZUAI、国家实验室)。
- 延迟敏感推理客户 —— agentic 应用、实时代码/语音、推理重链 —— 这些场景下首 token 时间和 token/秒显著改变 UX(Cognition、通过合作伙伴的 Mistral、Hugging Face、Mayo Clinic、GSK)。
Cerebras 解决的痛点:GPU 集群在大上下文长度时强制吞吐量和延迟之间权衡;晶圆级移除了芯片间通信税。未解决的痛点:CUDA 生态系统锁定,以及尖峰/小工作负载的弹性。
3. 竞争格局
| 供应商 | 架构 | 优势 | 相对 Cerebras 的劣势 |
|---|---|---|---|
| NVIDIA (H100/B200) | GPU + NVLink/HBM | CUDA 生态系统、供应、通用性 | 对大型开源模型流式推理慢 5-20 倍 |
| Groq | LPU(确定性 SRAM) | 小模型上 TTFT 最低 | 较小的片上内存;在 405B+ 规模上挣扎 |
| SambaNova (SN40L/SN50) | 可重构数据流 | 最佳 perf/area;在私有部署上强 | 在最大开源模型上峰值 t/s 低于 Cerebras |
| GPU 云(coreweave lambda-labs runpod nebius together-ai) | NVIDIA 租赁 | 灵活性、生态系统 | 流式时受 GPU 显存带宽瓶颈 |
Cerebras 的楔子是非常大开源权重模型上的流式吞吐量;它不试图在 $/training-FLOP 上击败 H100/B200 舰队。
4. 独立观察
- 客户集中度风险真实但正在转变。 在 2024 年 S-1 中,G42 占营收 87%。对于 FY2025,MBZUAI + G42 合计占 $510M 营收的约 86% —— 仍然高度集中,但 OpenAI 主关系协议(750 MW 可扩展至 2 GW,期内 $20B+)将故事重新框定为"通过单一大型锚点多元化"。
- AWS Bedrock 绑定条款书是更具战略意义的披露:它迫使 NVIDIA 原生的超大规模云厂商将非 GPU 硅片集成到托管推理中,这是 Groq/SambaNova 未能匹敌的先例。
- 推理优先转向匹配更广泛的行业转变 —— 见 ai-inference-engines。Cerebras 在 2022 年是训练芯片故事;在 2026 年,IPO 叙事几乎完全关于推理经济学。
- 晶圆级根本上是与 gpu-kernel-optimization 正交的玩法:没有内核融合杠杆可拉,因为整个模型在芯片上。这既解放又限制。
5. 财务 / 融资
- FY2025 营收:$510M,同比 +76%;净收入 $87.9M(按 S-1 首个盈利年)。
- IPO:2026 年 5 月提交修正 S-1;目标 Nasdaq 上市(代码 CBRS),28M Class A 股,$115-$125 区间,约 $26.6B 估值约 $3.5B 募资。
- 锚点合同:$20B+ OpenAI 主关系协议(750 MW,可扩展至 2 GW);与 AWS 的 CS-3 在 Bedrock 中的绑定条款书。
- 早期由 G42 / Foundation Capital / Benchmark / Eclipse / Altimeter 领投的私募轮次;IPO 前估值标记低于 IPO 区间。
6. 团队与关系
- 创始人:Andrew Feldman(CEO)、Gary Lauterbach、Michael James、Sean Lie、Jean-Philippe Fricker —— 大多数创始团队来自 SeaMicro(2012 年售给 AMD)。
- 投资方:G42、Foundation Capital、Benchmark、Eclipse Ventures、Altimeter、Coatue。
- 客户 / 合作伙伴:OpenAI(锚点推理合同)、G42 / Core42、MBZUAI、AWS(Bedrock 集成)、Meta、IBM、Hugging Face、Oracle、Cognition、Mayo Clinic、GlaxoSmithKline。
- 本 wiki 中相邻的基础设施玩法:coreweave lambda-labs runpod nebius together-ai —— 所有 NVIDIA 舰队运营商,从不同架构方向竞争相同的推理美元。
Last compiled: 2026-05-09