Company
NVIDIA
AI 算力的事实垄断者 —— H100/B200 芯片加上 CUDA 软件护城河,所有替代芯片都以它为基准。
1. 核心产品 / 服务
NVIDIA 设计的 GPU 与周边栈训练并服务几乎所有前沿 AI 模型。2026 年活跃 SKU:
- Hopper (H100 / H200) —— TSMC 4N,80–141 GB HBM。H100 仍约 700–1,000 TFLOPS FP16 [1];2023–2025 年建设的主力,目前云端价格下行。
- Blackwell (B200 / GB200 NVL72) —— TSMC 4NP 双 die,192 GB HBM3e,每芯片约 10 PFLOPS FP4;机架级 GB200 NVL72 通过 NVLink 封装 72 GPU + 36 Grace CPU [1]。
- Blackwell Ultra (B300) 和下一代 Rubin 在路线图上;Rubin 预计采用 TSMC N3。
除芯片之外,NVIDIA 在稳步向上整合:CUDA + cuDNN + TensorRT-LLM(kernel 层,见 gpu-kernel-optimization);NIM 推理微服务;通过超大规模厂商出租的 DGX Cloud 托管集群;NVLink / Spectrum-X / Quantum 网络;Omniverse / Isaac / Drive 垂直栈。硬件如今只是卖平台的借口。
2. 目标用户与痛点
三类买家:
- 超大规模厂商 + 前沿实验室(Microsoft、Meta、Google、Amazon、OpenAI、Anthropic、xAI)—— 按吉瓦购买 GB200 机架;解决的痛点是供货,而非选型。
- 新型云厂商(coreweave lambda-labs nebius runpod)—— 用资本承诺换取早期配额;它们的整个业务就是转售 NVIDIA 机时。
- 企业 / 主权客户 —— 购买 DGX 系统或 DGX Cloud;解决的痛点是"我们想要 AI 基建,但不想自己拥有晶圆出货的供应链"。
配额而非标价才是真正的产品。等候名单就是护城河。
3. 竞争格局
| 厂商 | 2026 数据中心 AI 加速器营收份额 | 优势 | 弱点 |
|---|---|---|---|
| NVIDIA | 约 80–90% | CUDA、供货、通用性、网络 | 利润率承政治压力;自研芯片厂蚕食 |
| amd | 约 5–7% | MI300X/MI355X HBM 优势,ROCm 改善中 | 软件差距,机群规模较小 |
| google-tpu | 自家 + Anthropic | 在 Google 栈上最佳性价比 | 仅供 GCP 自家 |
| aws-trainium | 自家 + Anthropic | 为单一客户提供廉价芯片 | 软件不成熟 |
| microsoft-maia | 自家 | 与 OpenAI 联合设计 | Maia 100 从未对外发货 |
| cerebras / Groq / SambaNova | <1% | 晶圆级 / LPU 流式推理 | 利基 |
4. 独立观察
- B200 单位经济模型令人发指。 估算 COGS 约 $6,400,ASP 约 $40,000 —— 每单位毛利率约 84%;H100 ASP $25–40K,对应 COGS 约 $3,320 —— 毛利率约 88% [2]。HBM 现占 B200 COGS 约 45%(H100 是 41%),这就是为什么 HBM3e 供货实际上决定了能有多少 Blackwell 存在。
- CUDA 是会复利的护城河。 每一个主要框架优化(FlashAttention、vLLM、SGLang)都 CUDA-first;ROCm 落后 6–18 个月;自家芯片(TPU/Trainium/Maia)需要重写模型,主公司愿意承担但开放市场不愿意。见 gpu-kernel-optimization 和 ai-inference-engines。
- TSMC 产能才是真正的瓶颈 —— 不是 GPU 本身,而是 tsmc CoWoS 先进封装线。CoWoS 到 2026 年都已售罄;产能从约 35K wafer/月(2024 年末)爬升到约 130K wafer/月(2026 年末)[6]。没有 CoWoS 的 B200 只是一块无法与 HBM 一起封装的 die。全行业需求超过供给 1.4–1.6 倍 [3]。
- 通过 NIM 和 DGX Cloud 向上挪是对其自身客户的威胁。 NIM 把 CUDA + TensorRT-LLM + 模型打包成可部署容器;DGX Cloud 通过 Azure/GCP/Oracle 出租 NVIDIA 自建集群。NVIDIA 明确避免在裸 IaaS 上与超大规模厂商竞争 —— 但 NIM 让它直接对 L3 推理层抽税。像 coreweave 这类新型云,距离被向上脱媒只差一次产品发布。
- 集中于前四大客户。 Microsoft、Meta、Google、Amazon 加上 OpenAI/xAI/Anthropic 事实上决定路线图。超大规模厂商自研芯片(google-tpu aws-trainium microsoft-maia)是 NVIDIA 正通过 NIM/DGX 动作定价的慢动作结构性风险。
5. 财务 / 融资
- FY2026 Q1 营收:总计 $44.1B,数据中心 $39.1B(同比 +69%) [1]
- 全年指引隐含约 $200B+ 的运行率;FY2026 展望约 $78B/季度的轨迹 [1]
- 毛利率:整体约 70%+,数据中心产品约 75–80%
- 市值:2026 年中约 $3.5T+,全球最大上市公司之一
- 资本支出(NVIDIA 自身的,非客户的):极少 —— fabless 模式,轻资产
- 战略性持股:2026 年 1 月对 coreweave $2B 投资后约 13% 股权;在 Nebius 等公司有较小持股 —— NVIDIA 正在成为自己客户的 LP
6. 团队与关系
- CEO:Jensen Huang(联合创始人,自 1993)
- CFO:Colette Kress
- 企业 / 数据中心负责人:Ian Buck(CUDA 始作俑者),Jay Puri(全球现场运营)
- 晶圆代工伙伴:tsmc(4N → 4NP → N3 / N2)
- HBM 供应商:SK hynix(主要)、Samsung、Micron
- 大客户:Microsoft、Meta、Google、Amazon、OpenAI(经由 Microsoft + 直接)、xAI、Anthropic、Oracle
- 自家云伙伴:coreweave(约 13% 持股)、lambda-labs、nebius、runpod、together-ai
- 直接竞争对手 / 替代品:amd intel huawei-ascend google-tpu aws-trainium aws-inferentia microsoft-maia cerebras
Last compiled: 2026-05-10