Google Cloud
唯一拥有两条具备竞争力 AI 硅芯片产品线的超大规模厂商 —— TPU(自研,7 代)和 NVIDIA —— 也是唯一在同一基建上同时托管 Gemini (1P) 和 Anthropic Claude(大型外部客户)的厂商。
1. 核心产品 / 服务
Google Cloud Platform (GCP) 是 Alphabet 的云业务;AI 相关切片是 Cloud TPU + GPU VM (A3/A4) + Vertex AI 托管模型层 + Gemini API。
对 AI 重要的算力 SKU:
- Cloud TPU v6e (Trillium) —— 第六代 TPU,峰值算力 / 每芯片相比 v5e 4.7×,HBM 2×,以 256 芯片切片部署,Pod 扩展至 ~9,000+ 芯片 [2][3]。
- Cloud TPU v7 (Ironwood) —— 2026 年 4 月宣布;Trillium 5 倍算力,为大规模推理优化 [7]。
- A3 (H100) / A3 Mega / A3 Ultra —— 8× H100 配 3.2 Tbps Jupiter 网络结构。
- A4 (B200) —— 8× B200 Blackwell。
- A4X (GB200 NVL72) —— 机架级 GB200,2025 年末 GA。
- Vertex AI Model Garden —— 托管目录 (Gemini 1P、Claude、Llama、Mistral、合作伙伴模型)。
- Gemini API —— 直接 1P API,主要在 TPU 上运行。
产能策略:TPU 是成本/性能武器(Google 设计/拥有硅芯片),NVIDIA 覆盖具有 CUDA 锁定工作负载的客户。TPU 和 NVIDIA 均为 Gemini 训练和 Anthropic 关系大规模扩容。
2. 目标用户与痛点
- Anthropic —— 将 Google Cloud TPU 用作主要的训练和推理平台;2025 年 10 月公布的扩展达 ~100 万 TPU 芯片和 >1 GW 产能 [5][6]。
- Anthropic 之外的前沿实验室 —— DeepMind(自用)、各种外部研究实验室因成本使用 TPU。
- 企业 —— Snap、Spotify、PayPal、Wayfair、Wendy's 标准化使用 Vertex / Gemini 进行托管 AI。
- 搜索相邻客户希望低延迟 Gemini 集成 (Gemini 2.5 Pro / Gemini 3 Pro Preview)。
解决的痛点:TPU 在支持的工作负载上(JAX/PyTorch-XLA)价格/性能低于 NVIDIA,与 Workspace + Search 紧密集成,唯一与 1P 模型并列首屈一指的 Claude 云。
3. 竞争格局
| 提供方 | 相对 GCP 的差异化 |
|---|---|
| aws | 总体规模更大,Anthropic 持股,Trainium 硅芯片 |
| microsoft-azure | OpenAI 合作,Microsoft 365 分发 |
| oracle-cloud | 与 OpenAI 的 5000 亿美元 Stargate;激进的 GPU 定价 |
| coreweave | 纯粹 neocloud,仅 NVIDIA |
GCP 的优势:TPU 硅芯片栈领先任何其他超大规模厂商自定义 ASIC 4 代;唯一在同一规模同时运行 1P 前沿模型 (Gemini) 和外部实验室 (Anthropic) 的云。劣势:装机量较小,企业销售实力不如 AWS/Azure,被认为"仅面向开发者"。
4. 独立观察
- A3 H100 定价:a3-highgpu-8g (8× H100 80GB) 按需 list
$88.49/实例·小时 ($11.06/H100·小时);1 年 CUD$55.74/实例·小时 ($6.97/H100·小时);3 年 CUD$39.82/实例·小时 ($4.98/H100·小时) [1]。A3 Mega / A3 Ultra (H200) list 更高;A4 (B200) 入门 list$110/实例·小时 ($13.75/B200·小时) 短期预留,Spot/CUD 折扣更深。 - TPU 定价 (Trillium v6e):
$2.70/芯片·小时 list 按需,$1.89/芯片·小时 1 年 CUD,~$1.22/芯片·小时 3 年 CUD [2]。TPU v5p(训练层)按需 ~$4.20/芯片·小时。对能用 TPU 的工作负载,TPU 每 FLOP 比等价 H100 支出便宜 2-3× —— Anthropic 将大量训练份额迁移到 TPU 的核心原因。 - TPU + NVIDIA 双产能:Google 不披露拆分,但仅 Anthropic 交易就意味着大规模 TPU 扩产 —— 约 100 万芯片新增专属产能 [5][6]。Google Cloud 上的 NVIDIA 集群也很大但战略叙事次要。
- Anthropic 合作是 Google 最重要的外部实验室云关系。Anthropic 同时使用 AWS Trainium(主要,通过 Amazon 80 亿美元投资)和 Google TPU/NVIDIA(大型训练 + 推理伙伴)。Google 累计已投资 Anthropic ~30 亿美元+(2023 年报道 ~20 亿 + 2024 年报道 ~10 亿+ 扩展;完整数字未披露)。2025 年扩展至最多 100 万 TPU 芯片使 Anthropic 成为继 Google 自己的 DeepMind/Gemini 训练之后第二大 TPU 单一消费者 [5][6]。
- AI 营收份额:Google Cloud 2026 Q1 营收 134.2 亿美元 (+30% YoY) [4];运营收入 28.3 亿美元。Sundar Pichai 在财报中持续称 AI 为"云增长的主导驱动";具体 AI 份额未披露,但分析师估计 AI 归属云营收年化运行率 40-60 亿美元。云仍占 Alphabet 总营收 ~13%(2026 Q1 900 亿美元)。
- 客户集中度:未公开披露;Anthropic 普遍被理解为最大外部 AI 算力客户;内部自用负载(Search AI Overviews、Gemini、YouTube ML、DeepMind)可能超过外部 AI 营收。Vertex 的其他锚定客户(Snap、PayPal、Wendy's)公开点名但支出较小。
5. 财务 / 融资
- 母公司:Alphabet (NASDAQ: GOOGL);Google Cloud 为可报告分部。
- 2026 Q1 Google Cloud 营收:134.2 亿美元 (+30% YoY);运营收入 28.3 亿美元 (~21% 利润率) [4]。
- FY2025 Google Cloud 营收:~480 亿美元 (+30% YoY) [4]。
- AI 归属营收:未披露;Pichai 称 AI 为"主要增长驱动" —— 分析师估计年化 50 亿美元+。
- 资本支出:Alphabet FY2026 资本支出指引 ~950 亿美元,"绝大部分"为 AI 基建 (Pichai/Ruth Porat 评论)。
- Anthropic 投资:~30 亿美元+ 累计(Google + Google Ventures 2023-2024 联合轮)。
- TPU 计划:已出货 7 代 (v1 → Ironwood v7);生产量未披露但仅 Anthropic 的 100 万芯片承诺就创纪录 [5][6][7]。
6. 团队与关系
- Alphabet CEO:Sundar Pichai。
- Google Cloud CEO:Thomas Kurian。
- DeepMind:Demis Hassabis (Gemini 训练 GCP TPU 自用客户)。
- 锚定外部 AI 合作伙伴:Anthropic(2025 年
100 万 TPU 扩展;30 亿美元+ Google 股权)。 - NVIDIA:A3/A4/A4X 的关键供应商。
- Vertex 上的其他 AI 合作伙伴:Mistral、Meta (Llama)、Cohere、Stability。
- 竞争对手:aws、microsoft-azure、oracle-cloud、coreweave。
来源
[1] https://cloud.google.com/compute/gpus-pricing (2026-05-10) [2] https://cloud.google.com/tpu/docs/v6e (2026-05-10) [3] https://cloud.google.com/blog/products/ai-machine-learning/introducing-trillium-6th-generation-tpu (2026-05-10) [4] https://abc.xyz/assets/investor/2026Q1_alphabet_earnings_release.pdf (2026-05-10) [5] https://www.anthropic.com/news/expanding-our-use-of-google-cloud (2026-05-10) [6] https://www.reuters.com/technology/artificial-intelligence/anthropic-google-tpu-expansion-2025-10-23/ (2026-05-10) [7] https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/ (2026-05-10)