Company

Lambda Labs

"超级智能云" —— DL 原生 GPU 云 + 本地 AI 服务器,2012 年由 Balaban 兄弟创立,现在是与 coreweavenebius 比肩的顶级 neocloud。

1. 核心产品 / 服务

三条产品线包装一个对 NVIDIA 密集 AI 基建的押注:

  • Lambda Cloud(按需 & 预留 GPU 实例) —— 按分钟计费,无出口费,仅按需(无 spot)。目录涵盖 NVIDIA B200、H100/H200 SXM、GH200、A100、A6000 以及传统 V100/A10 [1]。
  • 1-Click Clusters —— 生产就绪的 InfiniBand 网络集群,从 16 到 2,000+ B200 或 H100 GPU,自助配置。头条费率 B200 $8.87–$9.86/GPU·小时,H100 $5.54–$6.16/GPU·小时 [1]。
  • Lambda Hyperplane(本地服务器) —— 带 NVLink+NVSwitch 的 4×/8× H100 SXM5 HGX 盒,AMD EPYC 9004 系列 CPU,256GB-8TB DDR5,高达 32 petaFLOPS FP8。出货带 Lambda Stack(预装 CUDA、cuDNN、PyTorch、TensorFlow)。通过 Mellanox InfiniBand 扩展到多节点 Lambda Echelon 集群 [2]。
  • Lambda Chat / 推理 —— 托管 DeepSeek-R1 和其他 OSS 模型;信号从仅训练向 ai-inference-engines 领域推进。

相对通用 IaaS 的差异化:有主见的 DL 软件栈和紧密的 NVIDIA 集成(H200 / Blackwell 的早期访问合作伙伴)。

2. 目标用户与痛点

  • 训练 7B-400B 参数模型的 AI 研究实验室和前沿模型初创 —— 需要带 InfiniBand 的长期预留 B200/H100 产能,无法从 AWS/GCP 快速分配。
  • 启动单一 8×H100 盒一周的 ML 工程师和独立研究人员 —— Lambda 的按分钟计费 + 预烘焙的 CUDA/PyTorch 镜像,相对原始 EC2 消除一天的折腾。
  • 企业本地买家(受监管行业、政府邻近)—— 直接购买 Hyperplane 服务器而不是租用;In-Q-Tel 在股权结构表上,标志国防/情报用例。

解决的痛点:超大规模厂商 GPU 稀缺、缓慢启动、意外出口账单、环境设置税。

3. 竞争格局

提供方 按需 H100/小时 优势 弱点
Lambda ~$2.99-$4.29(因 SKU/集群层而异)[1] DL 原生栈、无出口、本地 + 云、强 NVIDIA 关系 仅按需(无 spot),比市场贵
coreweave ~$2.39-$4.76 公开公司、吉瓦规模、超大规模级 SLA 偏企业,自助较少
runpod ~$1.99-$2.99(社区/安全混合) 按秒计费、无服务器 GPU、开发者友好 企业较少,机群较小
nebius ~$2.00-$3.50 欧盟足迹、公开公司(Yandex 分拆) 美国品牌较新
vast-ai ~$1.49-$2.50 最便宜市场 可靠性方差,无企业 SLA
together-ai n/a(推理即服务) 为 OSS LLM 调优的推理 不是原始 GPU 租用
AWS/GCP/Azure $4.00-$12.00+ 集成云、合规 分配门控、出口费、缓慢

Lambda 的楔形是"高端 neocloud"中端:比超大规模厂商更便宜更快,比 vast-ai / runpod 更可靠和更软件捆绑。

4. 独立观察

  • 转型历史:2012 年作为面部识别初创开始;DL 爆发时转向 GPU 服务器。DL 栈 DNA(Lambda Stack 被数十万研究人员下载)是任何 neocloud 最便宜的分发渠道 —— coreweave 不得不通过交易购买触达;Lambda 已经拥有它。
  • 资本结构不对称:2025 年 2 月 4.8 亿美元 D 轮在 ~25 亿美元估值,然后 2025 年 11 月 15 亿美元+ E 轮由 TWG Global + USIT 领投。在 <12 个月内合计 ~20 亿美元+ —— 只有 [coreweave]在 neocloud 队列中募集更多。
  • 战略投资者混合不寻常:NVIDIA + In-Q-Tel + Karpathy + ARK + 供应链玩家(Pegatron、Supermicro、Wistron、Wiwynn)。OEM 作为投资者的角度给 Lambda 在 B200/Blackwell 系统上的优先分配 —— 在供应受限市场中的硬护城河。
  • 2026 年 5 月 CEO 变更:Michel Combes(电信资深人士,前 Sprint/Altice)作为 CEO 引入;创始人 Stephen Balaban 转任 CTO,Michael Balaban 转任 CPO。信号从创始人模式向吉瓦规模运营执行转变 —— 与 coreweave IPO 前运行的相同 playbook。
  • 无 spot 层是有意的选择 —— 高端定位,但将价格敏感的长尾让给 runpod / vast-ai。见 runpod-gpu-inference 该层的经济。

5. 财务 / 融资

轮次 日期 金额 领投 估值
C 轮 2024 3.2 亿美元 Thomas Tull / USIT ~15 亿美元
D 轮 2025 年 2 月 4.8 亿美元 Andra Capital, SGW ~25 亿美元 [3]
E 轮 2025 年 11 月 15 亿美元+ TWG Global, USIT 未披露(传言 ~40 亿美元+)[4]

值得注意的 D/E 轮投资者:NVIDIA、In-Q-Tel、Andrej Karpathy、ARK Invest、G Squared、Pegatron、Supermicro、Wistron、Wiwynn、Crescent Cove、1517 [3][4]。

足迹:跨自有/租赁数据中心部署 25,000+ NVIDIA GPU(截至 D 轮公告);E 轮指定用于吉瓦规模建设 [3][4]。

6. 团队与关系

  • Stephen Balaban —— 联合创始人,CTO(2026 年 5 月起)。前 CEO。LinkedIn / NVIDIA GTC 上的公开面孔。
  • Michael Balaban —— 联合创始人,首席产品官(2026 年 5 月起)。
  • Michel Combes —— CEO(2026 年 5 月起),前 Sprint、前 Altice。
  • John Donovan —— 主席,前 AT&T Communications CEO。
  • 投资者 / 战略:NVIDIA、In-Q-Tel、TWG Global、USIT、ARK Invest、Andrej Karpathy。
  • 邻近:与 coreweavenebiusrunpodvast-ai 竞争;与推理层玩家如 together-ai 互补,并服务也在 ai-inference-engines 框架之上的客户。

来源

Last compiled: 2026-05-09