RadixArk
SGLang 的商业化主体。开源推理引擎 + 企业托管 + Miles RL 后训练框架,Accel/Spark 领投,$100M 种子轮 / $400M 估值。
1. 核心产品 / 服务
- SGLang(开源推理引擎):2023 年起源于 UC Berkeley LMSYS(Ion Stoica 实验室),核心创新是 RadixAttention——基于 radix tree 的 token 级 KV cache 自动复用,相比 vLLM 的 block-level hashing 在多轮对话和结构化输出上 prefix 命中率更高 [4]。当前部署在数十万张 GPU 上,每天产出 trillions of tokens,被 Google、Microsoft、NVIDIA、Oracle、AMD、Nebius、LinkedIn、xAI、Thinking Machines Lab 使用 [2]。
- Miles:企业向 RL 后训练框架,针对 LLM/VLM post-training,从
slimefork 出来并 co-evolve,开源在github.com/radixark/miles[3]。和 SGLang inference loop 紧耦合,主打 fast RL training loop。 - 企业托管推理(商业版):基于 SGLang + Miles 提供 managed inference + 硬件适配 + SLA。
性能对比(H100,参考 2026-04-07 笔记):SGLang ~16,200 tok/s vs vLLM ~12,500 tok/s [local]。
2. 服务对象 & 痛点
- 目标客户:自部署 LLM 的企业、模型公司、新硬件厂商(需要 day-0 SGLang 适配)。
- 痛点:
- 多轮对话 / agent workflow 重复 prefix 计算成本高 → RadixAttention 解决。
- 模型迭代快(DeepSeek V3.x、Kimi K2.x、Llama 4),自建推理团队跟不上 → 用 SGLang 拿到 day-0 支持。
- RL 后训练 infra 和 inference 引擎割裂 → Miles + SGLang 一体化。
官方推荐绑定关系(2026-04 ):deepseek V3/R1/V3-0324 day-0 支持、Meta Llama 4 推荐之一、Mistral Large 3、Moonshot kimi K2/K2.5 [local]。
3. 竞争格局
| RadixArk (SGLang) | inferact (vLLM) | Modular (MAX + BentoML) | Fireworks AI | together-ai | |
|---|---|---|---|---|---|
| 引擎 | SGLang(开源) | vLLM(开源) | MAX(自研) | 自研闭源 | 自研 + 多 OSS |
| 估值 | $400M | $800M | $1.6B | ~$10B+ | 大几十亿 |
| 种子 | $100M (2026-05) | $150M (2026-01) | — | 后期 | 后期 |
| 领投 | Accel + Spark | a16z + Lightspeed | — | — | — |
| 核心创新 | RadixAttention(token 级 KV reuse) | PagedAttention(block hashing) | Mojo + 编译栈 | 闭源优化 | 闭源 + OSS 集成 |
| 硬件覆盖 | 主流 NVIDIA/AMD,逐步扩展 | NVIDIA/AMD/TPU/Gaudi/Neuron | 自研编译栈 | NVIDIA 主 | 多家 |
差异化总结:vLLM 赢在广度、社区、operational simplicity;SGLang 赢在 prefix cache 效率、结构化输出、agent workflow。两家是双寡头,开源星数 vLLM ~65K vs SGLang ~16K [local]。
4. 独特观察
- RL infra 一体化是真壁垒:Inferact 没有对标 Miles 的 RL 后训练框架。在 ai-inference-engines 里,能一站式覆盖 inference + RL post-training 的玩家只有 RadixArk。客户不只是部署模型,还要持续训新版本——耦合度做出来了就难换。
- DeepSeek 选择不自建商业化:DeepSeek V3/R1 选择把优化贡献回 vLLM 而不是自建推理公司,本质是模型公司不想分心做 infra(参考 2026-04-07 笔记)。这个战略让 SGLang/RadixArk 反而有空间做"day-0 适配 + 托管"的中间层。
- 投资人结构罕见:种子轮同时拿到 NVIDIA (NVentures)、AMD、MediaTek 三家芯片厂直投 + Intel CEO Lip-Bu Tan / Broadcom CEO Hock Tan 的 angel——硬件中立性几乎被强制写进股东结构,这是它和绑定 a16z 阵营的 Inferact 一个微妙差异。
- 详见 ai-inference-engines、gpu-kernel-optimization。
5. 财务 / 融资
| 轮次 | 时间 | 金额 | 估值 | 领投 | 跟投 |
|---|---|---|---|---|---|
| 种子 | 2026-05-05 | $100M | $400M post-money | Accel + Spark Capital(co-lead) | NVentures (NVIDIA), AMD, MediaTek, Salience Capital, HOF Capital, Walden Catalyst, A&E Investments, LDV Partners, WTT Investment [2] |
天使投资人阵容:Igor Babuschkin (xAI co-founder)、Lip-Bu Tan (Intel CEO)、Hock Tan (Broadcom CEO)、John Schulman (OpenAI / Thinking Machines)、Soumith Chintala (PyTorch / Thinking Machines CTO)、Olivier Pomel (Datadog)、Thomas Wolf (Hugging Face)、William Fedus (Periodic Labs)、Robert Nishihara (Anyscale)、Logan Kilpatrick (Gemini Product Lead) [2]。
注:TechCrunch 2026-01 报道时已传 $400M 估值(pre-launch),2026-05 launch 时确认为 $100M 种子 / $400M post-money [1][2]。
6. 关联人 & 公司
- 创始人:
- Ying Sheng(CEO)— 前 xAI 工程师,SGLang 主要作者之一,UC Berkeley 出身。
- Banghua Zhu(co-founder)— 前 NVIDIA 系统背景。
- 学术起源:UC Berkeley LMSYS(Ion Stoica 实验室),同实验室也孵化了 vLLM → inferact。
- 核心投资方:Accel(领投)、Spark Capital(co-lead)、NVIDIA NVentures、AMD、MediaTek、HOF Capital、Walden Catalyst。
- 直接竞争:inferact(vLLM 商业化,同实验室出身的对家)。
- 生态客户(公开披露使用 SGLang):xAI、Google、Microsoft、NVIDIA、Oracle、Nebius、LinkedIn、Thinking Machines Lab;模型方 deepseek、kimi 官方推荐。
- 相关 infra entity:together-ai(推理 API 平台,部分基于 vLLM/SGLang)、runpod(GPU 云,常作为 SGLang 部署底座)、openrouter(路由层,下游用 SGLang 后端)。
Sources
- [1] TechCrunch, "Sources: Project SGLang spins out as RadixArk with $400M valuation as inference market explodes", 2026-01-21
- [2] BusinessWire, "RadixArk Launches with $100M in Seed Funding Led by Accel...", 2026-05-05
- [3] GitHub
radixark/milesREADME(2026-05-09 访问) - [4] Accel, "Investing in RadixArk: Building the Open Infrastructure for AI"(2026-05-09 访问)
- local:
2026-04-01-diary.md(vLLM/SGLang 基线对比) - local:
daily_log-2026-04-08.md(Inferact / RadixArk session notes、性能数据、DeepSeek 战略分析) - local:
ai-agent-platforms.md