Company

SambaNova Systems

自研 RDU(Reconfigurable Dataflow Unit)+ 全栈 AI 系统,原企业 / 政府市场核心选手,2024 起转型对外开 token API。

1. 核心产品 / 服务

SambaNova 是 垂直自研到芯片 的 AI 系统公司,三层产品:

  • SN40L RDU:第二代 reconfigurable dataflow 芯片(HBM3 + 三层 memory hierarchy),强项是把超大模型(Llama 405B 级)单系统装下而不需大规模 model parallel —— 极少 sharding 带来低延迟。
  • DataScale 系统 / SambaNova Suite:把 RDU + 软件 + 预训练模型组合卖给企业 / 政府,通常以 "AI-as-a-Service" 一体化合同形态。
  • SambaNova Cloud(2024 launch):对外开放的 token API,serverless 计费 — Llama 3.1 405B、Llama 3.3 70B、DeepSeek V3 / R1、Qwen2.5、Whisper [2]。这是 SambaNova 从"卖 enterprise 系统"转向"卖 token"的关键产品转向。

2. 服务对象 & 痛点

  • 政府 / 主权 AI / 受监管行业:联邦机构、银行、医疗 — 需要 on-prem、需要 isolation、不接受 cloud-only。SambaNova 一直以来强项。
  • 企业模型微调 + 部署一体化:买 SambaNova 就拿到芯片 + 软件 + 一个 fine-tune 好的开源模型套件 —— 简化采购流程。
  • 痛点:传统 NVIDIA 路径需要单独买 GPU + 自建推理栈 + 运维;SambaNova 是 "turn-key AI rack",但 lock-in 也最强(专有 SDK)。
  • SambaNova Cloud 痛点定位:用同一个 RDU 系统对外卖 token,给开发者尝鲜入口 —— 但定价上能否长期跟 Groq / Cerebras 拼速度还在观察。

3. 竞争格局

Competitor Positioning Vs. SambaNova
groq LPU + 速度叙事 同为 non-GPU;Groq 走开发者云;SambaNova 走企业 / 政府
cerebras 晶圆级 WSE-3 同为非主流硬件路线;Cerebras 单芯片更激进;SambaNova 系统集成更成熟
NVIDIA + DGX Cloud GPU + 生态 NVIDIA 通用性碾压;SambaNova 在"全栈一体化合同"上有差异
fireworks-ai / together-ai GPU 软件栈 SambaNova 在 405B 类大模型 single-stream latency 上有结构性优势
AWS Bedrock / Azure 云厂托管 云厂分发胜;SambaNova 私有部署胜

差异化:RDU 设计 + 三层 memory + 全栈打包。在 Llama 405B 级超大模型 single-stream 推理上,少 sharding → 低 latency 是物理性优势。

4. 独特观察

  • Per-token 定价(SambaNova Cloud,2026-05):Llama 3.1 405B ~$5/M input + $10/M output(早期定价偏高,向同行靠拢中);Llama 3.3 70B ~$0.60/M blended;DeepSeek V3 ~$1/M blended;Llama 3.1 8B ~$0.10/M [1]。405B 速度卖点 ~200+ tok/s 是 SambaNova Cloud 的招牌(GPU 体系下 405B serverless 通常 <30 tok/s)。
  • vs 1P 价差:Llama 3.1 405B SambaNova ~$7.5/M blended vs GPT-4o ~$10/M blended — 价差不显著。但 SambaNova 卖点不是便宜,是"用同等价位拿超大开源模型 + 极快速度"。
  • vs 速度同行:相比 groq 的 LPU 70B 速度,SambaNova 真正的 niche 在 405B —— Groq 跑 405B 需要更多 LPU、产能紧;SambaNova 系统结构上更适合超大模型 single-instance。
  • 推理引擎:完全自研、闭源。RDU 编译器 + 软件栈是公司护城河。任何新模型架构(如新的 attention variant、MoE 拓扑)需要 SambaNova 软件团队适配 — 速度跟不上 vLLM / SGLang。
  • 资本 / 算力模型:自研 + 自有 fab partner(GlobalFoundries),fabless 路径;GPU 玩家面临的"NVIDIA 涨价"压力转化为"自家芯片研发周期 + 流片成本"的不同形态。
  • Take rate:数据中心 = 自家 RDU rack;token 售价 - 摊销折旧 = 毛利。早期 RDU 单位算力成本高于 H100(量小),但不付 NVIDIA 60% 毛利税。需要 cloud 业务量上来才能摊薄。
  • 战略困境:估值高($5B post-2021),但 enterprise sales 周期长 + cloud 业务追赶 Groq;2024-2026 多次裁员重组反映 "卖系统 → 卖 token"转型阵痛。

5. 财务 / 融资

Round Date Amount Valuation Lead
Series A-C 2017-2020 ~$450M 累计 Walden, GV, Intel Capital
Series D 2021-04 $678M $5.1B post SoftBank Vision Fund 2
  • 创立:2017 年(Stanford / Sun Microsystems alumni)
  • 总融资:~$1.1B+
  • 客户:US Department of Energy (Argonne, LLNL), 沙特科研机构, 多家头部银行(公开 case 较少)
  • 报道:2023-2024 多轮裁员;2024 SambaNova Cloud 是关键 reposition

6. People & Relationships

  • Co-founders: Rodrigo Liang (CEO, ex-Oracle / Sun)、Kunle Olukotun (Stanford 教授, multi-core CPU 早期奠基者)、Christopher Ré (Stanford 教授, ML systems / Snorkel 创始人之一)。
  • Investors: SoftBank Vision Fund 2, BlackRock, Intel Capital, Google Ventures, Walden International, Atlantic Bridge, Celesta Capital。
  • Customers: Argonne National Lab, Lawrence Livermore National Lab, Saudi Aramco, 沙特公共云项目, Analog Devices。
  • Competes with: groq, cerebras, NVIDIA, fireworks-ai, together-ai

Sources

Last compiled: 2026-05-10