Company

NVIDIA

AI 算力的事实垄断者 —— H100/B200 芯片加上 CUDA 软件护城河,所有替代芯片都以它为基准。

1. 核心产品 / 服务

NVIDIA 设计的 GPU 与周边栈训练并服务几乎所有前沿 AI 模型。2026 年活跃 SKU:

  • Hopper (H100 / H200) —— TSMC 4N,80–141 GB HBM。H100 仍约 700–1,000 TFLOPS FP16 [1];2023–2025 年建设的主力,目前云端价格下行。
  • Blackwell (B200 / GB200 NVL72) —— TSMC 4NP 双 die,192 GB HBM3e,每芯片约 10 PFLOPS FP4;机架级 GB200 NVL72 通过 NVLink 封装 72 GPU + 36 Grace CPU [1]。
  • Blackwell Ultra (B300) 和下一代 Rubin 在路线图上;Rubin 预计采用 TSMC N3。

除芯片之外,NVIDIA 在稳步向上整合:CUDA + cuDNN + TensorRT-LLM(kernel 层,见 gpu-kernel-optimization);NIM 推理微服务;通过超大规模厂商出租的 DGX Cloud 托管集群;NVLink / Spectrum-X / Quantum 网络;Omniverse / Isaac / Drive 垂直栈。硬件如今只是卖平台的借口。

2. 目标用户与痛点

三类买家:

  • 超大规模厂商 + 前沿实验室(Microsoft、Meta、Google、Amazon、OpenAI、Anthropic、xAI)—— 按吉瓦购买 GB200 机架;解决的痛点是供货,而非选型。
  • 新型云厂商(coreweave lambda-labs nebius runpod)—— 用资本承诺换取早期配额;它们的整个业务就是转售 NVIDIA 机时。
  • 企业 / 主权客户 —— 购买 DGX 系统或 DGX Cloud;解决的痛点是"我们想要 AI 基建,但不想自己拥有晶圆出货的供应链"。

配额而非标价才是真正的产品。等候名单就是护城河。

3. 竞争格局

厂商 2026 数据中心 AI 加速器营收份额 优势 弱点
NVIDIA 约 80–90% CUDA、供货、通用性、网络 利润率承政治压力;自研芯片厂蚕食
amd 约 5–7% MI300X/MI355X HBM 优势,ROCm 改善中 软件差距,机群规模较小
google-tpu 自家 + Anthropic 在 Google 栈上最佳性价比 仅供 GCP 自家
aws-trainium 自家 + Anthropic 为单一客户提供廉价芯片 软件不成熟
microsoft-maia 自家 与 OpenAI 联合设计 Maia 100 从未对外发货
cerebras / Groq / SambaNova <1% 晶圆级 / LPU 流式推理 利基

4. 独立观察

  • B200 单位经济模型令人发指。 估算 COGS 约 $6,400,ASP 约 $40,000 —— 每单位毛利率约 84%;H100 ASP $25–40K,对应 COGS 约 $3,320 —— 毛利率约 88% [2]。HBM 现占 B200 COGS 约 45%(H100 是 41%),这就是为什么 HBM3e 供货实际上决定了能有多少 Blackwell 存在。
  • CUDA 是会复利的护城河。 每一个主要框架优化(FlashAttention、vLLM、SGLang)都 CUDA-first;ROCm 落后 6–18 个月;自家芯片(TPU/Trainium/Maia)需要重写模型,主公司愿意承担但开放市场不愿意。见 gpu-kernel-optimizationai-inference-engines
  • TSMC 产能才是真正的瓶颈 —— 不是 GPU 本身,而是 tsmc CoWoS 先进封装线。CoWoS 到 2026 年都已售罄;产能从约 35K wafer/月(2024 年末)爬升到约 130K wafer/月(2026 年末)[6]。没有 CoWoS 的 B200 只是一块无法与 HBM 一起封装的 die。全行业需求超过供给 1.4–1.6 倍 [3]。
  • 通过 NIM 和 DGX Cloud 向上挪是对其自身客户的威胁。 NIM 把 CUDA + TensorRT-LLM + 模型打包成可部署容器;DGX Cloud 通过 Azure/GCP/Oracle 出租 NVIDIA 自建集群。NVIDIA 明确避免在裸 IaaS 上与超大规模厂商竞争 —— 但 NIM 让它直接对 L3 推理层抽税。像 coreweave 这类新型云,距离被向上脱媒只差一次产品发布。
  • 集中于前四大客户。 Microsoft、Meta、Google、Amazon 加上 OpenAI/xAI/Anthropic 事实上决定路线图。超大规模厂商自研芯片(google-tpu aws-trainium microsoft-maia)是 NVIDIA 正通过 NIM/DGX 动作定价的慢动作结构性风险。

5. 财务 / 融资

  • FY2026 Q1 营收:总计 $44.1B,数据中心 $39.1B(同比 +69%) [1]
  • 全年指引隐含约 $200B+ 的运行率;FY2026 展望约 $78B/季度的轨迹 [1]
  • 毛利率:整体约 70%+,数据中心产品约 75–80%
  • 市值:2026 年中约 $3.5T+,全球最大上市公司之一
  • 资本支出(NVIDIA 自身的,非客户的):极少 —— fabless 模式,轻资产
  • 战略性持股:2026 年 1 月对 coreweave $2B 投资后约 13% 股权;在 Nebius 等公司有较小持股 —— NVIDIA 正在成为自己客户的 LP

6. 团队与关系

Last compiled: 2026-05-10