Product

Qwen

Alibaba 的旗舰 LLM 系列 —— 生产中最广的开源权重模型园,在中国实验室中具有最激进的多模态 + 长上下文覆盖。

1. 核心产品 / 服务

Qwen(通义千问 / Tongyi Qianwen)是 Alibaba Cloud 基础模型团队的 LLM 品牌。产品界面:

  • Hugging Face 上的开源权重模型园:跨 base / instruct / coder / math / VL(视觉-语言)/ Audio / Omni(多模态)的数十种 SKU —— 到 2026 年,Qwen3 一代是活跃血统;kimi 实体的报告引用 Qwen 3.6 Plus 作为生产旗舰,具有 1M 上下文和同类最佳的 Terminal-Bench 分数。截至 2026-05,Qwen 4 处于开发 / 预览状态(发布定位因来源而异)。
  • Qwen Chat(chat.qwen.ai / 通义手机 app)—— 消费聊天机器人。
  • Alibaba Cloud Model Studio —— Qwen-Max / Qwen-Plus / Qwen-Turbo / Qwen-Long 档位的商用 API,OpenAI 兼容。闭源顶档 (Qwen-Max) 在此变现,开源权重覆盖生态。
  • 专门线:Qwen2.5/3-Coder(编码)、Qwen2.5/3-Math、Qwen-VL / VL-Max(视觉-语言)、Qwen-Audio、Qwen-Omni。

License 姿态:多数开源发布是 Apache 2.0 —— 中国前沿实验室中最宽松,比 DeepSeek 的混合 license(MIT 代码 + 自定义模型 license)更开放。

2. 目标用户与痛点

  • 中国开发者 + Alibaba Cloud 客户 —— 主要商业渠道。Model Studio 打包到 Alibaba Cloud 更广的算力 / 存储 / 网络栈中。
  • 全球开源权重自托管者 —— Apache 2.0 让 Qwen 成为中国开源权重选项中最容易合法商用的路径。
  • 多模态构建者 —— Qwen-VL / Qwen-Omni 原生覆盖文本 + 图像 + 音频 + 视频,覆盖范围比 DeepSeek(文本优先)更广,且与 Gemini 竞争。
  • 长上下文用户 —— Qwen3 的 1M 上下文窗口匹配 deepseek V4 前沿,超过 kimi K2.6(256k)。

解决的痛点:法律干净的开源权重商用;最广 SKU 覆盖多模态 + 数学 + 编码专门化;最便宜的 1M 上下文选项。

3. 竞争格局

实验室 起源 开源权重? 差异化
Qwen Alibaba(中国) 是(Apache 2.0) 最广 SKU 园、多模态原生、1M 上下文
deepseek 中国(High-Flyer) 是(MIT + license) 最佳质量/成本比、MoE 深度
kimi Moonshot(中国) 部分 长视界代理、K2.6 1T MoE
zhipu 清华 / 中国 部分(GLM 旧代开源) 前端 / GUI 代理专门化
Meta Llama 美国 是(社区 license) 品牌 + 西方企业分发
mistral 法国 混合 欧盟主权 + 闭源顶档

Qwen 在中国"AI 四小龙"(DeepSeek / Kimi / Qwen / GLM 智谱)内的定位:Qwen 是最广的 —— 覆盖比任何同侪更多的 SKU 和模态,但 DeepSeek 在同参数级前沿质量上领先,Kimi 在代理编码基准上领先。Qwen 在分发上获胜(Alibaba Cloud 横跨中国 SMB + 亚太企业的覆盖)更胜过任何单一模型维度。

4. 独立观察

  • 前沿训练成本(Qwen3 / Qwen3.6 Plus):未单独披露,捆绑在 Alibaba Cloud 整体 AI capex 线中。1M 上下文 Plus 档位的参数级与 DeepSeek V4 Pro(1.6T 总 / 49B 激活)可比,意味着相似的数亿美元中段训练算力预算。Alibaba 的优势是运行在自己的云上(Alibaba Cloud H100/H200 + 美国出口管制限制的国产加速器),所以每 FLOP 成本经济更像 Google TPU,而不像 OpenAI 从第三方租 NVIDIA。

  • API 定价 —— 顶级 SKU (Qwen-Max / Qwen3 商用):Alibaba Cloud Model Studio 对国际用户的 Qwen-Max 定价在 约 $1.6/M 输入 · 约 $6.4/M 输出区间(因地区和 Plus / Long 变体而异)。中国国内定价更低(存在 sub-RMB/M-token 档)。Plus / Turbo / Long 阶梯让 Alibaba 在全球能压过 OpenAI / Anthropic,同时在 Alibaba Cloud 算力上保持正利润。

  • 定价对估算单位成本 —— 毛利率信号:在 Alibaba Cloud 自有 GPU 机群上服务 Qwen 意味着 Alibaba 同时捕获 L2 云利润率(GPU 机时相对物理 capex 的加价)和 L3 模型 API 利润率(token 相对推理成本的加价)—— 类似超大规模厂商对自家专有模型做的垂直整合。Qwen-Max API 工作负载的有效组合毛利率可能在 70–85% 区间,开源权重 Qwen3 SKU 作为更广云的客户获取漏斗。

  • 开源权重战略 —— Apache 2.0 是护城河:Qwen 一直是许可最宽松的中国模型生产线。Apache 2.0 允许完全商用而无每部署条款,这就是为什么 Qwen 按 Hugging Face 下载量在开源权重生态中占据除 Llama 外最大份额。战略逻辑:Alibaba 不需要直接变现模型;它变现的是客户运行模型所在的云基建。开源权重 = 采纳管道;商用 Qwen-Max = 升级。

  • 通过 Alibaba Cloud 商用 —— 打包效应:Qwen 是 Alibaba 企业软件(DingTalk AI、天猫 / 淘宝内部 AI、菜鸟物流、高德导航,加上 Alibaba Cloud 目录中的一切)的默认模型。Alibaba 自身生态内的 token 消耗已足够大,即便外部 API 营收为零,Qwen 也能以相对授权 OpenAI / Claude 的内部成本规避来自付其本。

  • 垂直整合:在 Alibaba 宇宙内是完整的。Alibaba 全球运营自己的超大规模数据中心(亚太、中东、欧洲),运营自己的 AI 加速器项目(Hanguang NPU,加上由于美国出口管制限制 NVIDIA H100 在中国大陆可用性而与国产中国硅厂商合作),并通过 Model Studio 在该栈上服务 Qwen。模型实验室不拥有芯片,但拥有云,这比 Google 之外多数西方前沿实验室都更垂直。

5. 财务 / 融资

  • 母公司:Alibaba 集团(NYSE: BABA,HK: 9988)。Qwen 是 Alibaba Cloud Intelligence Group(DAMO Academy 血统)的产品。未单独融资。
  • 根据 2025 年公开宣布,Alibaba 承诺 3 年 (2025–2027) RMB 380B+(约 $53B+) 投入 AI + 云 capex —— 是 Stargate 之外全球最大的单一公司 AI 基建承诺之一。
  • Qwen 相关营收捆绑在 Alibaba Cloud Intelligence Group 的报告(云 + AI)中,2025 财年跨越 RMB 100B+ 年营收

6. 团队与关系

  • 负责人 / 首席科学家:林俊旸 (Junyang Lin) 是公开露面的 Qwen 团队负责人。
  • 母机构:Alibaba Cloud Intelligence Group + DAMO Academy(Alibaba 研究分支)。
  • Alibaba 集团领导:Eddie Wu(CEO)、Joe Tsai(主席)。
  • 交叉投资:Alibaba 是 kimi(Moonshot AI)和其他中国 AI 实验室的主要投资人 —— 既是竞争对手又是资本提供者。
  • 分发伙伴:Alibaba Cloud Model Studio(1P)、Hugging Face(开源权重生态)、openroutertogether-ai、DeepInfra(3P 托管)。
  • 竞争对手:deepseekkimizhipu、MiniMax、Baidu Ernie、Meta Llama、mistral
Last compiled: 2026-05-10