Product

AWS

按营收最大的云,也是最多元化的 AI 算力平台 —— 同时运行 NVIDIA H100/H200/B200 舰队以及支撑 Anthropic 训练栈的专有 Trainium2 硅片。

1. 核心产品 / 服务

Amazon Web Services (AWS) 是 Amazon 的云业务单元;AI 相关切片是 EC2 GPU/加速器系列 + 托管模型层(Bedrock、SageMaker)。

对 AI 重要的算力 SKU:

  • EC2 P5 / P5en —— 8× NVIDIA H100(P5)或 8× H200(P5en),3.2 Tbps EFA 网络,部署于 >20,000 GPU 的 UltraCluster [1]。
  • EC2 P6(Blackwell) —— 8× NVIDIA B200,2025 年宣布;2026 年全年滚动进入 UltraCluster。
  • EC2 Trn2 / Trn2 UltraServer —— 每实例 16× Trainium2 芯片;UltraServer 通过 NeuronLink fabric 连接 4 个 Trn2 节点(64 芯片)用于前沿训练 [7]。
  • EC2 Inf2 —— 基于 Inferentia2,推理优化。
  • Amazon Bedrock —— 托管多模型 API(Anthropic Claude、Llama、Mistral、Amazon Nova、Stability),坐落在相同硬件之上。
  • SageMaker HyperPod —— 多千加速器训练集群的编排。

容量是有意的双轨:NVIDIA 服务客户需求广度,Trainium 在 anthropic 锚点工作负载(Project Rainier —— 约 40 万 Trainium2 芯片专用于 Anthropic)上提供每 token 成本杠杆 [6]。

2. 目标用户与痛点

  • 前沿 AI 实验室 —— Anthropic 是标志性客户(在 Trainium2 上训练 Claude;部分推理在 Bedrock 上)。
  • 企业 AI 买家,希望在现有 AWS 边界内(VPC、IAM、审计)有 Claude/Llama 端点 → Bedrock。
  • AI 创业公司,通过 AWS 积分 / Activate 项目扩展到 P5/P5en 集群上。
  • 推理重度 SaaS,希望 Inferentia2 在中等质量下提供成本/token。

解决痛点:与 AWS 其余部分的集成身份/网络,Trainium 对少数可以共同设计的客户(Anthropic)比 NVIDIA 便宜,以及通过 Capacity Blocks 进行容量预订 [2]。

3. 竞争格局

提供商 相对 AWS 的差异化
microsoft-azure OpenAI 专属分销;更深的企业 + GitHub 集成
google-cloud TPU 硅片(在自定义 ASIC 上领先 4 代),Anthropic 也是客户
oracle-cloud 激进的 GPU 定价,Stargate / OpenAI 巨型合同
coreweave 纯玩家新云,通常原始 H100/H200 更便宜
nebius 欧盟注册新云,NVIDIA 对齐

AWS 的优势:规模(最大企业租户安装基础)、Anthropic 深度、Trainium 自有硅片。劣势:在前沿模型故事上迟到(Nova 表现不及 Claude/GPT/Gemini),而且 Bedrock 更多是合作伙伴模型的包装而非 1P 玩法。

4. 独立观察

  • GPU 定价(Capacity Blocks,按需预订):H100 P5 标价约 $98.32/实例·小时(约 $12.29/H100·小时)适用于 Capacity Blocks 下的 1 周预订;按需标价 $98.32/实例·小时,在低利用率下达到约 $31–$40/H100·小时,但真实客户通过 Savings Plans / Reserved 在 1–3 年以 $3–$6/H100·小时交易 [2]。H200 P5en 标价约 $84.77/H200·小时 Capacity Block;B200 P6 截至 2026-05 尚未公开定价 [1][2]。实际费率远低于标价 —— 前沿客户(Anthropic、Stability)以多年承诺谈判深度折扣,未公开披露。
  • 容量来源组合按支出 70/30 NVIDIA/Trainium(估计;AWS 不披露)。 Trainium2 份额在 Project Rainier 的推动下快速上升 —— Anthropic 的约 40 万 Trainium2 集群于 2025 年末上线 [6]。Rainier 是世界上最大的非 NVIDIA AI 训练集群。
  • AI 营收份额 —— AWS 不拆分。Q1 2026 AWS 营收 $29.3B(同比 +17%),2025 全年 $107.6B;CEO 评论将"AI 业务"框定为同比三位数 % 增长的数十亿美元运行率,但绝对数字未披露 [5]。分析师三角测算将 AI 可归因的 AWS 营收放在 $8–$12B 年化区间 —— 占总数的小份额,但是整个增长故事。
  • 披露的客户集中度 = Anthropic。 Amazon 已对 Anthropic 累计投资 $8B(2023 年 9 月 $4B + 2024 年 11 月 $4B),以 Trainium 作为明确的对价交换:Anthropic 使用 AWS 作为主要训练合作伙伴 [3][4]。Anthropic 反过来是证明 Trainium2 存在的锚点 —— 没有该工作负载,芯片项目的经济学就会破裂。其他主要 AI 实验室机会性地使用 AWS(cohere、AI21、Mistral 在 Bedrock 上),但 Anthropic 是单一承重关系。对比 microsoft-azure 对 OpenAI 的依赖 —— 相同模式,不同实验室。
  • "Bedrock 是自用分销"观点:Bedrock 上的每个前沿模型都支付 AWS 利润,而 AWS 不承担任何模型开发风险。Microsoft OpenAI 玩法的镜像,但多模型。与 ai-inference-engines 中 L2→L3b 垂直整合行相关。

5. 财务 / 融资

  • 母公司:Amazon (NASDAQ: AMZN);AWS 是可报告板块。
  • Q1 2026 AWS 营收:$29.3B(同比 +17%);运营收入 $11.5B(39.5% 利润率)[5]。
  • FY2025 AWS 营收:$107.6B(同比 +19%)[5]。
  • AI 可归因营收:未披露;CEO Andy Jassy 在财报电话会议(2025 Q4、2026 Q1)将 AI 描述为"年化数十亿美元营收业务,以三位数百分比增长" [5]。
  • 资本支出:Amazon 整体 2025 年 $100B+ 指引;据 Jassy 称"绝大部分"与 AI/AWS 相关。
  • Anthropic 投资:累计 $8B(2023 年 9 月 $4B + 2024 年 11 月 $4B)[4]。
  • Project Rainier(Anthropic Trainium2 集群):约 40 万 Trainium2 芯片,2025 年 12 月上线 [6]。

6. 团队与关系

  • AWS CEO:Matt Garman(2024 年 6 月起);前销售与营销 SVP。
  • Amazon CEO:Andy Jassy(前 AWS CEO;AI 战略主要负责人)。
  • 锚点 AI 合作伙伴:Anthropic(投资 $8B;主要训练客户;Project Rainier)。
  • NVIDIA:P5/P5en/P6 关键供应商;也在 AWS 上运行 DGX Cloud 预订。
  • Bedrock 上的其他 AI 合作伙伴:Mistral、Cohere、AI21、Stability、Meta(Llama)、Anthropic、Amazon Nova(1P)。
  • 竞争对手microsoft-azuregoogle-cloudoracle-cloudcoreweave

来源

[1] https://aws.amazon.com/ec2/instance-types/p5/ (2026-05-10) [2] https://aws.amazon.com/ec2/capacityblocks/pricing/ (2026-05-10) [3] https://www.anthropic.com/news/anthropic-amazon-trainium (2026-05-10) [4] https://www.cnbc.com/2024/11/22/amazon-to-invest-another-4-billion-in-anthropic-openai-rival.html (2026-05-10) [5] https://ir.aboutamazon.com/news-release/news-release-details/2026/Amazon.com-Announces-First-Quarter-Results/default.aspx (2026-05-10) [6] https://www.aboutamazon.com/news/aws/aws-trainium2-ultraserver-anthropic-project-rainier (2026-05-10) [7] https://aws.amazon.com/blogs/aws/announcing-amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aws-trainium2/ (2026-05-10)

Last compiled: 2026-05-10