Review Agent
Jimmy 自研的 async pre-meeting / pre-PR review coach —— 在 briefer 把材料发给 responder 之前,让 AI 用 responder 的标准把它打回来。
1. 核心产品 / 服务
一个 top-down 评审 agent:requester 把要发出去的材料(会议 brief、PR、提案)丢给 skill,agent 模拟 responder 的视角跑一轮 critical review,输出 dissent log + decision-ready summary,要求 requester 改到 "responder bar" 才放行。
框架:4-pillar review(Background / Materials / Framework / Intent)+ Responder Simulation。Requester 发草稿 → agent 走 4-pillar 检查 → 同时模拟 responder 可能的反驳 → close 时同时 deliver 给 responder + requester。
版本路线:
- v1(已废弃):基于 hermes-agent runtime,Lark WS channel,per-pairing workspace
- v2.x:迁到 openclaw runtime,per-peer dynamic workspace(
workspace-feishu-ou_<openid>),watcher + systemd seeder 抢在 SOUL.md 写入前注入模板 - v3(当前):独立服务,FastAPI + DeepSeek,systemd --user 部署,独立端口 8080,与 openclaw 完全隔离
多模态 I/O:PDF、image-OCR、Lark doc 直接 ingest。
部署形态:可作为 hermes/openclaw skill 安装,也可作为独立服务跑(v3 是后者)。
2. 服务对象 & 痛点
Primary user:Jimmy 自己,以及任何向更高等级 responder 汇报的人(subordinate-to-superior 沟通场景)。
痛点:
- 草稿发出去前没人帮你压力测试 —— responder 会问什么、framework 是不是站得住、intent 写没写清
- 2026 年市面上 pre-meeting AI 都是 bottom-up(给接收者做 pre-read 总结),没人做 top-down(训练发送者达到接收者的 bar)
- 自我 review 有盲点,找人 review 又欠人情/不够及时
Trigger 场景:开会前给 boss / 投资人 / co-founder 发 brief,PR 提交前自审,提案文档定稿前。
3. 竞争格局
邻近但不重合:
- Pre-read 类(Granola, Read.ai, Otter)—— bottom-up,给 receiver 做摘要,不教 sender 怎么写
- PR review 类(Greptile, CodeRabbit, inferact)—— 只盖代码 diff,不覆盖 narrative materials
- Writing assistant(Grammarly, Lex)—— 改语法 / 风格,不模拟 responder 的反驳
差异化:top-down 评审 + responder simulation + dissent log,把 responder 的 bar 显式编码成 4-pillar,而非泛泛 "make it better"。
4. 独特观察
- "Top-down review" 这个 niche 现在没人占(2026-04 调研结论),是结构性空白还是市场不够大尚未验证 —— 重装 v3 + 接 Lark 后会有更多 live data。
- 设计上把 dissent log 与 summary 分离:dissent 给 requester(让他知道哪些点站不住),summary 给 responder(让会开得快),是 ai-human-hybrid 的一种实现。
- v2 → v3 的关键教训:skill-as-plugin 模式(v2 跑在 openclaw 里)的 lifecycle 管理(install/uninstall/upgrade)远比想象中难,issue #1 一次记录了 7 个 uninstall bug;v3 改成独立服务后 lifecycle 干净很多。
- 与 personal-ai-delegate 是同一 personal-ai stack 里的不同层:PAID 是 outbound delegate(替你发消息 / 决策),review-agent 是 inbound gate(替你压住要发出去的内容)。
- 推理 backend 用 deepseek(V4 Pro / V4 Flash,2026-04 起;早期跑在 v3 系列),thinking-disable 模式跑,性价比比 Claude / GPT 高一档,对 review 这种 long-context-但-不需-超-creative 的任务够用。
5. 财务 / 融资
非商业项目。Jimmy 个人 self-host,运行成本主要是 DeepSeek API 调用(per-review 量级 ~cents)+ 一台共享 VPS。GitHub repo 公开作为 skill release,无变现路径在规划中。
6. 关联人 & 公司
- 作者 / 维护者:Jimmy(owner.json 配置驱动,无 hardcode)
- 依赖 runtime:hermes-agent(v1)、openclaw(v2.x,无 wiki 条目)
- 推理 provider:deepseek(v3 主力 model)
- 同 stack 邻居:personal-ai-delegate —— 同一个人 AI 体系下的 outbound 端
- 相关 module:claude-code-sessions(开发工作流)、ai-human-hybrid(设计哲学)、human-in-the-loop-ai(close-loop 交付模式)
Sources
- local: 2026-04-20-summary.md
- local: memory/project_review_agent.md (v2.x 设计 + 卸载教训)
- local: memory/project_review_agent_v3_deploy.md (v3 部署架构)