Company
Lambda Labs
"超级智能云" —— DL 原生 GPU 云 + 本地 AI 服务器,2012 年由 Balaban 兄弟创立,现在是与 coreweave 和 nebius 比肩的顶级 neocloud。
1. 核心产品 / 服务
三条产品线包装一个对 NVIDIA 密集 AI 基建的押注:
- Lambda Cloud(按需 & 预留 GPU 实例) —— 按分钟计费,无出口费,仅按需(无 spot)。目录涵盖 NVIDIA B200、H100/H200 SXM、GH200、A100、A6000 以及传统 V100/A10 [1]。
- 1-Click Clusters —— 生产就绪的 InfiniBand 网络集群,从 16 到 2,000+ B200 或 H100 GPU,自助配置。头条费率 B200 $8.87–$9.86/GPU·小时,H100 $5.54–$6.16/GPU·小时 [1]。
- Lambda Hyperplane(本地服务器) —— 带 NVLink+NVSwitch 的 4×/8× H100 SXM5 HGX 盒,AMD EPYC 9004 系列 CPU,256GB-8TB DDR5,高达 32 petaFLOPS FP8。出货带 Lambda Stack(预装 CUDA、cuDNN、PyTorch、TensorFlow)。通过 Mellanox InfiniBand 扩展到多节点 Lambda Echelon 集群 [2]。
- Lambda Chat / 推理 —— 托管 DeepSeek-R1 和其他 OSS 模型;信号从仅训练向 ai-inference-engines 领域推进。
相对通用 IaaS 的差异化:有主见的 DL 软件栈和紧密的 NVIDIA 集成(H200 / Blackwell 的早期访问合作伙伴)。
2. 目标用户与痛点
- 训练 7B-400B 参数模型的 AI 研究实验室和前沿模型初创 —— 需要带 InfiniBand 的长期预留 B200/H100 产能,无法从 AWS/GCP 快速分配。
- 启动单一 8×H100 盒一周的 ML 工程师和独立研究人员 —— Lambda 的按分钟计费 + 预烘焙的 CUDA/PyTorch 镜像,相对原始 EC2 消除一天的折腾。
- 企业本地买家(受监管行业、政府邻近)—— 直接购买 Hyperplane 服务器而不是租用;In-Q-Tel 在股权结构表上,标志国防/情报用例。
解决的痛点:超大规模厂商 GPU 稀缺、缓慢启动、意外出口账单、环境设置税。
3. 竞争格局
| 提供方 | 按需 H100/小时 | 优势 | 弱点 |
|---|---|---|---|
| Lambda | ~$2.99-$4.29(因 SKU/集群层而异)[1] | DL 原生栈、无出口、本地 + 云、强 NVIDIA 关系 | 仅按需(无 spot),比市场贵 |
| coreweave | ~$2.39-$4.76 | 公开公司、吉瓦规模、超大规模级 SLA | 偏企业,自助较少 |
| runpod | ~$1.99-$2.99(社区/安全混合) | 按秒计费、无服务器 GPU、开发者友好 | 企业较少,机群较小 |
| nebius | ~$2.00-$3.50 | 欧盟足迹、公开公司(Yandex 分拆) | 美国品牌较新 |
| vast-ai | ~$1.49-$2.50 | 最便宜市场 | 可靠性方差,无企业 SLA |
| together-ai | n/a(推理即服务) | 为 OSS LLM 调优的推理 | 不是原始 GPU 租用 |
| AWS/GCP/Azure | $4.00-$12.00+ | 集成云、合规 | 分配门控、出口费、缓慢 |
Lambda 的楔形是"高端 neocloud"中端:比超大规模厂商更便宜更快,比 vast-ai / runpod 更可靠和更软件捆绑。
4. 独立观察
- 转型历史:2012 年作为面部识别初创开始;DL 爆发时转向 GPU 服务器。DL 栈 DNA(Lambda Stack 被数十万研究人员下载)是任何 neocloud 最便宜的分发渠道 —— coreweave 不得不通过交易购买触达;Lambda 已经拥有它。
- 资本结构不对称:2025 年 2 月 4.8 亿美元 D 轮在 ~25 亿美元估值,然后 2025 年 11 月 15 亿美元+ E 轮由 TWG Global + USIT 领投。在 <12 个月内合计 ~20 亿美元+ —— 只有 [coreweave]在 neocloud 队列中募集更多。
- 战略投资者混合不寻常:NVIDIA + In-Q-Tel + Karpathy + ARK + 供应链玩家(Pegatron、Supermicro、Wistron、Wiwynn)。OEM 作为投资者的角度给 Lambda 在 B200/Blackwell 系统上的优先分配 —— 在供应受限市场中的硬护城河。
- 2026 年 5 月 CEO 变更:Michel Combes(电信资深人士,前 Sprint/Altice)作为 CEO 引入;创始人 Stephen Balaban 转任 CTO,Michael Balaban 转任 CPO。信号从创始人模式向吉瓦规模运营执行转变 —— 与 coreweave IPO 前运行的相同 playbook。
- 无 spot 层是有意的选择 —— 高端定位,但将价格敏感的长尾让给 runpod / vast-ai。见 runpod-gpu-inference 该层的经济。
5. 财务 / 融资
| 轮次 | 日期 | 金额 | 领投 | 估值 |
|---|---|---|---|---|
| C 轮 | 2024 | 3.2 亿美元 | Thomas Tull / USIT | ~15 亿美元 |
| D 轮 | 2025 年 2 月 | 4.8 亿美元 | Andra Capital, SGW | ~25 亿美元 [3] |
| E 轮 | 2025 年 11 月 | 15 亿美元+ | TWG Global, USIT | 未披露(传言 ~40 亿美元+)[4] |
值得注意的 D/E 轮投资者:NVIDIA、In-Q-Tel、Andrej Karpathy、ARK Invest、G Squared、Pegatron、Supermicro、Wistron、Wiwynn、Crescent Cove、1517 [3][4]。
足迹:跨自有/租赁数据中心部署 25,000+ NVIDIA GPU(截至 D 轮公告);E 轮指定用于吉瓦规模建设 [3][4]。
6. 团队与关系
- Stephen Balaban —— 联合创始人,CTO(2026 年 5 月起)。前 CEO。LinkedIn / NVIDIA GTC 上的公开面孔。
- Michael Balaban —— 联合创始人,首席产品官(2026 年 5 月起)。
- Michel Combes —— CEO(2026 年 5 月起),前 Sprint、前 Altice。
- John Donovan —— 主席,前 AT&T Communications CEO。
- 投资者 / 战略:NVIDIA、In-Q-Tel、TWG Global、USIT、ARK Invest、Andrej Karpathy。
- 邻近:与 coreweave、nebius、runpod、vast-ai 竞争;与推理层玩家如 together-ai 互补,并服务也在 ai-inference-engines 框架之上的客户。
来源
- [1] Lambda 定价页 — https://lambda.ai/pricing (2026-05-09)
- [2] Hyperplane H100 发布 — https://lambda.ai/blog/lambda-launches-new-hyperplane-server-with-nvidia-h100-gpus-and-amd-epyc-9004-series-cpus (2026-05-09)
- [3] D 轮公告 — https://lambda.ai/blog/lambda-raises-480m-to-expand-ai-cloud-platform (2026-05-09)
- [4] E 轮公告 — https://lambda.ai/blog/lambda-raises-over-1.5b-from-twg-global-usit-to-build-superintelligence-cloud-infrastructure (2026-05-09)
- [5] 领导团队 — https://www.businesswire.com/news/home/20260505895594/en/Lambda-Assembles-Leadership-Team-to-Power-Gigawatt-Scale-AI-Infrastructure-for-the-Superintelligence-Era (2026-05-09)
- local: 2026-04-13-daily-log(在先前的 frontmatter 中引用;文件不在 raw/ 中)
Last compiled: 2026-05-09