Company

RadixArk

SGLang 的商业化主体。开源推理引擎 + 企业托管 + Miles RL 后训练框架,Accel/Spark 领投,$100M 种子轮 / $400M 估值。

1. 核心产品 / 服务

  • SGLang(开源推理引擎):2023 年起源于 UC Berkeley LMSYS(Ion Stoica 实验室),核心创新是 RadixAttention——基于 radix tree 的 token 级 KV cache 自动复用,相比 vLLM 的 block-level hashing 在多轮对话和结构化输出上 prefix 命中率更高 [4]。当前部署在数十万张 GPU 上,每天产出 trillions of tokens,被 Google、Microsoft、NVIDIA、Oracle、AMD、Nebius、LinkedIn、xAI、Thinking Machines Lab 使用 [2]。
  • Miles:企业向 RL 后训练框架,针对 LLM/VLM post-training,从 slime fork 出来并 co-evolve,开源在 github.com/radixark/miles [3]。和 SGLang inference loop 紧耦合,主打 fast RL training loop。
  • 企业托管推理(商业版):基于 SGLang + Miles 提供 managed inference + 硬件适配 + SLA。

性能对比(H100,参考 2026-04-07 笔记):SGLang ~16,200 tok/s vs vLLM ~12,500 tok/s [local]。

2. 服务对象 & 痛点

  • 目标客户:自部署 LLM 的企业、模型公司、新硬件厂商(需要 day-0 SGLang 适配)。
  • 痛点
    • 多轮对话 / agent workflow 重复 prefix 计算成本高 → RadixAttention 解决。
    • 模型迭代快(DeepSeek V3.x、Kimi K2.x、Llama 4),自建推理团队跟不上 → 用 SGLang 拿到 day-0 支持。
    • RL 后训练 infra 和 inference 引擎割裂 → Miles + SGLang 一体化。

官方推荐绑定关系(2026-04 ):deepseek V3/R1/V3-0324 day-0 支持、Meta Llama 4 推荐之一、Mistral Large 3、Moonshot kimi K2/K2.5 [local]。

3. 竞争格局

RadixArk (SGLang) inferact (vLLM) Modular (MAX + BentoML) Fireworks AI together-ai
引擎 SGLang(开源) vLLM(开源) MAX(自研) 自研闭源 自研 + 多 OSS
估值 $400M $800M $1.6B ~$10B+ 大几十亿
种子 $100M (2026-05) $150M (2026-01) 后期 后期
领投 Accel + Spark a16z + Lightspeed
核心创新 RadixAttention(token 级 KV reuse) PagedAttention(block hashing) Mojo + 编译栈 闭源优化 闭源 + OSS 集成
硬件覆盖 主流 NVIDIA/AMD,逐步扩展 NVIDIA/AMD/TPU/Gaudi/Neuron 自研编译栈 NVIDIA 主 多家

差异化总结:vLLM 赢在广度、社区、operational simplicity;SGLang 赢在 prefix cache 效率、结构化输出、agent workflow。两家是双寡头,开源星数 vLLM ~65K vs SGLang ~16K [local]。

4. 独特观察

  • RL infra 一体化是真壁垒:Inferact 没有对标 Miles 的 RL 后训练框架。在 ai-inference-engines 里,能一站式覆盖 inference + RL post-training 的玩家只有 RadixArk。客户不只是部署模型,还要持续训新版本——耦合度做出来了就难换。
  • DeepSeek 选择不自建商业化:DeepSeek V3/R1 选择把优化贡献回 vLLM 而不是自建推理公司,本质是模型公司不想分心做 infra(参考 2026-04-07 笔记)。这个战略让 SGLang/RadixArk 反而有空间做"day-0 适配 + 托管"的中间层。
  • 投资人结构罕见:种子轮同时拿到 NVIDIA (NVentures)、AMD、MediaTek 三家芯片厂直投 + Intel CEO Lip-Bu Tan / Broadcom CEO Hock Tan 的 angel——硬件中立性几乎被强制写进股东结构,这是它和绑定 a16z 阵营的 Inferact 一个微妙差异。
  • 详见 ai-inference-enginesgpu-kernel-optimization

5. 财务 / 融资

轮次 时间 金额 估值 领投 跟投
种子 2026-05-05 $100M $400M post-money Accel + Spark Capital(co-lead) NVentures (NVIDIA), AMD, MediaTek, Salience Capital, HOF Capital, Walden Catalyst, A&E Investments, LDV Partners, WTT Investment [2]

天使投资人阵容:Igor Babuschkin (xAI co-founder)、Lip-Bu Tan (Intel CEO)、Hock Tan (Broadcom CEO)、John Schulman (OpenAI / Thinking Machines)、Soumith Chintala (PyTorch / Thinking Machines CTO)、Olivier Pomel (Datadog)、Thomas Wolf (Hugging Face)、William Fedus (Periodic Labs)、Robert Nishihara (Anyscale)、Logan Kilpatrick (Gemini Product Lead) [2]。

注:TechCrunch 2026-01 报道时已传 $400M 估值(pre-launch),2026-05 launch 时确认为 $100M 种子 / $400M post-money [1][2]。

6. 关联人 & 公司

  • 创始人
    • Ying Sheng(CEO)— 前 xAI 工程师,SGLang 主要作者之一,UC Berkeley 出身。
    • Banghua Zhu(co-founder)— 前 NVIDIA 系统背景。
  • 学术起源:UC Berkeley LMSYS(Ion Stoica 实验室),同实验室也孵化了 vLLM → inferact
  • 核心投资方:Accel(领投)、Spark Capital(co-lead)、NVIDIA NVentures、AMD、MediaTek、HOF Capital、Walden Catalyst。
  • 直接竞争inferact(vLLM 商业化,同实验室出身的对家)。
  • 生态客户(公开披露使用 SGLang):xAI、Google、Microsoft、NVIDIA、Oracle、Nebius、LinkedIn、Thinking Machines Lab;模型方 deepseekkimi 官方推荐。
  • 相关 infra entitytogether-ai(推理 API 平台,部分基于 vLLM/SGLang)、runpod(GPU 云,常作为 SGLang 部署底座)、openrouter(路由层,下游用 SGLang 后端)。

Sources

  • [1] TechCrunch, "Sources: Project SGLang spins out as RadixArk with $400M valuation as inference market explodes", 2026-01-21
  • [2] BusinessWire, "RadixArk Launches with $100M in Seed Funding Led by Accel...", 2026-05-05
  • [3] GitHub radixark/miles README(2026-05-09 访问)
  • [4] Accel, "Investing in RadixArk: Building the Open Infrastructure for AI"(2026-05-09 访问)
  • local: 2026-04-01-diary.md(vLLM/SGLang 基线对比)
  • local: daily_log-2026-04-08.md(Inferact / RadixArk session notes、性能数据、DeepSeek 战略分析)
  • local: ai-agent-platforms.md
Last compiled: 2026-05-09