当前位置: 首页 > news >正文

191k Star 的 Superpowers:把 AI 从“会写代码“改造成“守纪律的工程师“

路易乔布斯 · 2026-05-14 · AI Daily 深度拆解

数据时间锚点:本文写作时 obra/superpowers 数据为191k stars / v5.1.0 (2026-04-30) / 8 个编码代理平台已支持


一、那条让我点进去的 AI 日报

今早翻 AI 日报,第 9/10 条标着 🔥 重磅:

发布 Agent 技能框架与开发方法论
GitHub 上出现了一个名为 superpowers 的 Agent 技能框架与软件开发方法论,旨在解决 AI 代理在实际开发中缺乏结构化技能的问题。

我点进去之前对这个项目的认知是 “34k stars 的小工具”。点进 GitHub 第一眼数字让我愣住了:

191,000 stars

这不是小项目。这是一年内从 0 到接近 React 早期影响力级别的爆款。再翻 RELEASE-NOTES,作者 Jesse Vincent 从 v2.0(2025-10-12)一路迭代到 v5.1(2026-04-30),7 个月里把它从一个"个人插件"打磨成了8 个 AI 编码代理平台共同遵循的工作流层——Claude Code、Codex CLI、Cursor、Gemini CLI、OpenCode、Factory Droid、GitHub Copilot CLI、Codex App,全部一行命令安装。

那它到底是什么?官方一句话定义最准:

“An agentic skills framework & software development methodology that works.”

但这句话说人话就是一件事:它把"软件工程师素养"植入到 AI agent 里。让 AI agent 在写代码之前,先做一个守纪律的工程师。

我花了一晚上把它读穿,写下这篇深度拆解。看完你会知道:(1) 它解决的核心问题是什么,(2) 一个真实 SKILL.md 长什么样,(3) 7 个月演进里作者敢于砍自己的哪些设计,(4) 不论你用不用它,能从中借走什么。


二、它解决了什么问题:AI 强 ≠ AI 可靠

你的 AI 编码 agent 现在大概是这样的:

  • 你说"加个用户登录",它 30 秒内甩你 200 行代码
  • 没问你 OAuth 还是密码、用什么 session 方案、要不要双因素
  • 没写一行测试
  • 改完一处发现另一处坏了,自己也不回头看

听起来像不像你团队里那个最让人头疼的初级工程师?

Jesse Vincent 给出了一组让我心惊的硬数据。在 v5.1.0 的 RELEASE-NOTES 里他公开了一份调查:

“过去 100 个 PR 中,94% 因 AI 生成的低质内容被拒。”

100 个有 94 个被拒。这不是"AI 还不够好",这是**“AI 没有被规训”**。

Jesse 据此在 v5.1 加了一份AI agent 贡献者守则,明确写在CLAUDE.md顶部——AI 提交的 PR 如果只是"对着别人代码改名换姓"或"复制官方 README 凑个文件",一律退回。

这背后的命题清晰得近乎残酷:

AI 强大不等于 AI 可靠。要可靠,你得给它一套不能跳过的规矩。

Superpowers 想做的事就是这个。它不优化模型、不教 prompt、不卖 API。它只做一件事——在 AI agent 和你的代码库之间,竖起一道工程师纪律的墙


三、它的方法论:4 条哲学 + 7 步工作流 + 19 个技能

4 条设计哲学

Jesse 在 README 里只写了 4 条,全是动名词,全是反话:

哲学反对的是什么
Test-Driven Development反对"先写代码再补测试"
Systematic over ad-hoc反对"看心情决定流程"
Complexity reduction反对"为复杂而复杂"
Evidence over claims反对"我觉得这样没问题"

简单粗暴。这 4 条不是给人看的,是给 AI agent 看的。每一条都对应底下一组可执行 skill。

7 步标准工作流

Superpowers 把"接到需求 → 交付代码"这条路径拆成了 7 步,每一步对应一个或多个 skill:

#步骤对应技能这一步要解决什么
1澄清需求brainstorming不让 AI 直接动手,强制先反问真实意图
2隔离环境using-git-worktrees不污染主分支,每个任务独立 worktree
3写计划writing-plans把任务拆到 2-5 分钟粒度,初级工程师都能照做
4执行subagent-driven-development/executing-plans子代理派发 + 两阶段审查
5测试驱动test-driven-development强制 RED-GREEN-REFACTOR,先红后绿
6代码审查requesting-code-review任务间审查,按严重程度报告
7收尾finishing-a-development-branch合并 / PR / 保留 / 丢弃,由用户拍板

这套流程的精髓,在第 1 步和第 7 步——两端都把方向盘留给人

第 1 步用brainstorming强制澄清意图,AI 不能跳过。第 7 步合并方式必须用户选。中间 5 步是 AI 的执行域,但被 skill 体系夹得死死的:进 worktree → 出 plan → 跑 TDD → 评审 → 报告。

19 个技能的全景

类别核心技能
测试test-driven-development
调试systematic-debugging(4 阶段根因分析)/verification-before-completion
协作brainstorming/writing-plans/executing-plans/dispatching-parallel-agents/requesting-code-review/receiving-code-review/using-git-worktrees/finishing-a-development-branch/subagent-driven-development
writing-skills(怎么写新 skill)/using-superpowers(怎么用整套体系)

注意writing-skills这个元技能。它的存在意味着:Superpowers 不是给你一套固定的方法论,是给你一套"怎么把方法论编译成 AI 能执行的 skill"的元方法

这是它从 Cursor Rules、Claude Code Memory 这类同类产品里跳脱出来的关键差异。


四、一个真实 SKILL.md 长什么样

光说"19 个技能"太抽象。我把最核心那个brainstorming的源码全读了,给你拆开看。一个真实的 SKILL.md 里有什么。

4.1 Frontmatter:强制触发

---name:brainstormingdescription:"You MUST use this before any creative work-creating features,building components,adding functionality,or modifying behavior. Explores user intent,requirements and design before implementation."---

关键词:“You MUST”。不是 “should”、不是 “recommended”。这一句话直接决定 AI 在什么场景必须激活这个 skill——任何创造性工作之前。

4.2 HARD-GATE:硬门控

在你向用户呈现设计、并且用户批准之前, 不得调用任何实现技能、不得写代码、不得搭脚手架、不得做任何实现动作。 此规则适用于每一个项目,无论它看起来多简单。

这不是"建议",是HARD-GATE——硬门控。AI 不能跳过。

4.3 反模式段:驳斥常见借口

接下来一段标题是“This Is Too Simple To Need A Design”——直接把 AI 最常用的借口拎出来打脸:

即使是 todo list、单函数工具、配置改动,也必须走流程。设计可以短到几句话,但必须呈现并获批准

Jesse 把模型可能找的借口提前堵死。这是经验之谈——他在 v4.0 文档化过一个叫 “Description Trap” 的现象:短 description 会盖过详细 flowchart 的指引。所以现在每个 skill 都把"反模式"显式写出来。

4.4 9 步可执行 Checklist

#步骤关键动作
1探索项目上下文检查文件、文档、最近 commits
2提供视觉伴侣(如需要)单独一条消息,不与其他内容合并
3逐个提出澄清问题一次只问一个
4提出2-3 种方案带 trade-offs 和推荐意见
5分节呈现设计每节按复杂度伸缩,逐节获批
6写设计文档保存到docs/superpowers/specs/YYYY-MM-DD-<topic>-design.md并 git commit
7Spec 自审内联检查占位符、矛盾、歧义、范围
8用户审阅 spec 文件等待用户明确同意
9过渡到实现只能调用writing-plans技能

注意第 9 步——明确的下游交接。AI 完成 brainstorming 后,只能进入 writing-plans。不能直接跳去 frontend-design、不能直接 mcp-builder。

整个工作流被锁成单向有向图。

4.5 Graphviz DOT 流程图

skill 文件里直接内嵌一份 DOT 源码:

digraph brainstorming { "Explore project context" -> "Visual questions ahead?"; "Visual questions ahead?" -> "Offer Visual Companion" [label="yes"]; "Visual questions ahead?" -> "Ask clarifying questions" [label="no"]; "Ask clarifying questions" -> "Propose 2-3 approaches"; "Propose 2-3 approaches" -> "Present design sections"; "Present design sections" -> "User approves design?"; "User approves design?" -> "Present design sections" [label="no, revise"]; "User approves design?" -> "Write design doc" [label="yes"]; "Write design doc" -> "Spec self-review"; "Spec self-review" -> "User reviews spec?"; "User reviews spec?" -> "Write design doc" [label="changes requested"]; "User reviews spec?" -> "Invoke writing-plans skill" [label="approved"]; }

这个图既能渲染给人看,也能被 AI 当状态机执行。机器可读 + 人类可读——这是 Superpowers 把 skill 写成"程序"而非"教程"的关键技法。

4.6 Spec 自审 4 项

写完设计文档不是终点。AI 要自审 4 件事:

  1. 占位符扫描:有没有 TBD / TODO / 模糊需求?
  2. 内部一致性:各节是否互相矛盾?
  3. 范围检查:是否聚焦于单个实现计划?还是该拆?
  4. 歧义检查:任何需求是否可能有两种解读?若是,挑一种并写明确。

自审完成后,仍然要用户审阅 spec 文件这道闸门。

4.7 关键洞察

通读这一份 SKILL.md,我提炼出 Superpowers 真正的设计美学:

它不是给人读的教程,是给模型执行的「程序 + 守则」。

身份元数据 + 强制规则 + 有序步骤 + 决策图 + 原话 prompt + 自检清单 + 原则总结——七件套全齐。每一件都是为了让模型可以机械地、不偷懒地、可验证地执行。

这跟你写一个 Cursor Rule 是完全不同的层次。Cursor Rule 是"你应该这样",SKILL.md 是"你必须这样,否则 HARD-GATE 拦你"。


五、7 个月三次转身:作者敢于砍自己的设计

Superpowers 真正让我佩服的地方,不是它的设计精妙,而是 Jesse Vincent 在 7 个月里 3 次推翻自己。这种东西在国内同类项目里很少见。

转身一:架构(v2.0 → v3.0)

  • v2.0:单体插件
  • v2.x:拆成 shim + 独立 skills 仓库
  • v3.0:直接放弃自维护,迁移到 Anthropic 官方 skills 系统

放下"自己造的轮子"是反直觉的。但 Jesse 看到 Anthropic 原生 skill 系统能更可靠地被 Claude 加载,立刻迁移。别为代码自尊心买单。

转身二:范围(单平台 → 8 平台)

版本新增平台
v3.3Codex(首次跨平台)
v3.5OpenCode
v4.3Cursor
v5.0.1Gemini CLI
v5.0.7GitHub Copilot CLI
v5.1Factory Droid

每加一个平台都要改 bootstrap、写工具映射、调试兼容性。但 Jesse 的判断很清晰:Superpowers 应该是"工作流层",不是"Claude Code 插件"

到 v5.1,它是少数几个真正做到"在 8 个 AI 编码代理上行为一致"的方法论项目。

转身三:方法论(描述 → 强制 → 简化)

这个最有意思。

v4.3之前,Jesse 信任模型会按 description 走流程。结果发现 AI 经常跳过 brainstorming 直接动手——这就是 v4.0 文档化的“Description Trap”:当 description 短、flowchart 长时,模型只看 description 就做决定,flowchart 失效。

v4.3Jesse 加了 HARD-GATE + 检查表 + DOT 流程图——从"建议"升级到"强制"。

但故事没结束。

v5.0Jesse 又加了一套 subagent 评审循环——每个任务派子代理审一遍。听起来很优雅。

v5.0.6他做了实测:

“subagent 评审循环让执行时间增加约 25 分钟,但质量提升不可测。”

下一个版本他就把它删了。换成内联自评。

这是非常硬核的工程师品质——愿意基于真实数据砍掉自己设计的复杂机制。v5.1 进一步删了遗留 slash 命令、命名 agent、Integration 章节。“少即是多” 成为主旋律。

如果你只能从这 7 个月的演进里学一件事,那就是:

复杂的方案先做一个版本上线,跑数据,跑不出价值就砍。不要因为"我设计得好"就保留。


六、我能从中借鉴什么

无论你用不用 Superpowers 本身,下面 5 条都能直接抄到你自己的工作流里。

6.1 给 AI agent / 团队定 SKILL 卡片(三件套)

任何重复出现的工作流都该写成 SKILL 卡片,结构最少包含:

--- name: <skill-name> description: "You MUST use this when <trigger condition>" --- ## HARD-GATE(硬门控) 在 <某条件> 之前,不得 <某些动作>。 ## Checklist(9 步左右,每步动词开头) 1. ... 2. ... ## Anti-pattern(反模式段) "This Is Too Simple To Need A <X>"——驳斥这个借口。 ## Self-review(自审清单) 1. 占位符扫描 2. 内部一致性 3. 范围检查 4. 歧义检查

HARD-GATE + Checklist + Anti-pattern三件套。少哪件都会被绕过。

6.2 把"先写测试"内化为强制门控

不是"开发者自觉"——99% 的人没那个自觉。是 skill 里写明:

在你写实现代码之前,必须先写一个失败测试,并验证它确实失败。 违反此规则的提交会被代码审查拒绝。

强制 RED → GREEN → REFACTOR。AI agent 比人类更适合执行这个,因为它没有"先写完再补测试"的偷懒倾向(前提是你写了 HARD-GATE)。

6.3 用数据砍自己的设计

v5.0.6删 subagent 评审循环 +v5.1删 subagent 评审循环 这两步是最值钱的方法论。把它压成一句话:

每个复杂机制上线后,3 个月内必须给出"它带来的可量化价值"。给不出就砍。

不要因为"我设计得很巧妙"就保留。

6.4 跨工具的"工作流层"思维

Superpowers 一开始只跑在 Claude Code 上,作者完全可以一直当 Claude 插件做下去。但 Jesse 想到了一件事:方法论应该可移植,不该被某个工具锁定

类比一下你自己的项目:你的 Cursor Rules 能不能搬到 Codex CLI?你的 Claude Memory 能不能在 Gemini 上跑?如果不行,问问自己:是真的不可能,还是你没想过?

6.5 描述性指导 → 强制性门控的升级路径

写规则的人最容易犯的错:写一句"建议这样做",然后期待执行者真的这样做。

Superpowers 的演进告诉你:别期待。加门控

  • 描述性:“Should call brainstorming before coding”——AI 会跳过
  • 强制性:HARD-GATE + checklist + DOT 流程图——AI 跳不过

这条规律对你管理团队也成立。


七、它的局限和你不该用它的时候

公平起见,给反方一个机会。

局限后果
Skill 触发依赖模型遵循指令的能力弱模型上不靠谱(GPT-3.5、本地小模型)
不接受新技能贡献想加自己的 skill 必须 fork 自己维护
重流程对快速试错场景反而拖累周末 hack 一个原型不该用它
8 平台兼容意味着复杂的 bootstrap调试时要分清是平台问题还是 skill 问题
强制 brainstorming 可能让用户烦经验老手知道自己要什么时反复反问反而打断

它适合:长周期项目、多人协作、有质量门槛、AI agent 长时间无人值守工作。

它不适合:周末项目、原型验证、5 分钟一次性脚本、你已经知道全部细节只想让 AI 当代笔。


八、结尾:191k Star 不是因为它写代码厉害

读完这一切,我想清楚了一件事。

Superpowers 拿到 191k stars,不是因为它让 AI 写代码更厉害——它根本不写代码。

它拿到 191k stars,是因为它让 AI 不再乱写代码

这个区别比看起来大得多。整个行业过去两年都在卷"AI 怎么写得更多更快",Superpowers 反过来卷"AI 怎么写得更少更准"。它把刹车踏板装回了 AI 的车上。

你装上之后,第一次看到 AI agent 反过来问你 “你确定这个需求吗?”——那一刻你就懂为什么它值 191k stars 了。


附:8 平台一键安装

# Claude Code/plugininstallsuperpowers@claude-plugins-official# Codex CLI/plugins → 搜索 superpowers# Gemini CLIgemini extensionsinstallhttps://github.com/obra/superpowers# Cursor/add-plugin superpowers# GitHub Copilot CLIcopilot plugininstallsuperpowers@superpowers-marketplace# Factory Droiddroid plugin marketplaceaddhttps://github.com/obra/superpowers# OpenCode:让 AI 抓 .opencode/INSTALL.md# Codex App:侧边栏 Plugins → Coding → +

仓库:https://github.com/obra/superpowers(v5.1.0,191k stars,MIT License)


http://www.jsqmd.com/news/818614/

相关文章:

  • 嵌入式Linux设备型号信息全解析:从RK3562开发板到生产实践
  • JDspyder:3步实现京东抢购自动化的Python脚本解决方案
  • 基于HFSS-API的指数渐变传输线自动化建模与宽带匹配优化
  • local-claw:轻量级容器化开发环境工具的设计与实战
  • Katib:Kubernetes原生机器学习自动超参数调优实战指南
  • CloakBrowser 拆机:57 个 C++ 补丁能不能撑起“30/30 通过“的承诺?
  • 开源工具picprose:AI驱动的图片处理与文案生成一体化解决方案
  • 2026年5月更新:探寻靠谱废钢回收服务商,宁波皓诚再生资源有限公司深度解析 - 2026年企业推荐榜
  • PPT数据可视化——从Excel表格到专业图表的5分钟蜕变之路
  • 短视频代运营、抖音运营、短视频拍摄服务商2026全网获客指南与自媒体运营策略 - 年度推荐企业名录
  • Word崩溃自救指南:6大神器解决目录混乱、格式错乱等问题——从“目录生成失败“到“自动化办公“的6个神器
  • 基于主从博弈的电热综合能源系统动态定价与能量管理(Matlab代码实现)
  • 3分钟掌握Fast-GitHub:让GitHub下载速度飞起来的秘密武器
  • 3分钟学会使用Chrome文本替换插件:让网页编辑效率提升500%
  • 开源机械爪智能控制核心:BrainX 集成化设计、实时控制与上手实践
  • 如何用Pearcleaner彻底清理Mac应用残留文件:开源免费的解决方案
  • 从零构建轻量级向量搜索服务:原理、实践与优化指南
  • Smiley Sans字体如何在商业项目中合规使用?三步解决开源字体版权风险
  • PyFluent:如何用Python代码将CFD仿真效率提升10倍?
  • 分布式电动汽车转向稳定性控制【附代码】
  • GitToolBox插件安装失败的5个常见问题与解决方案
  • Claude Code崩了原因找到了、OpenAI砸40亿亲自驻场、Agent知识库还能这么玩
  • GTA5线上小助手:完全免费的终极游戏增强工具指南
  • 轻量级爬虫框架clawie实战:从核心原理到分布式扩展
  • 3D建模师必备:如何用GoB插件实现Blender与ZBrush的无缝协作
  • 电气设计知识保留:从工具革新到工程实践
  • 自托管代码仓库聚合分析平台CodeStacker:架构设计与部署指南
  • 2026年金融性能测试平台选型推荐:安全合规与高稳定性适配指南
  • 2026年Q2四川卷帘门维修全指南:四川项目防火门/汉世兴门业/项目防火门/四川不锈钢卷帘门/四川丙级防火门/四川乙级防火门/选择指南 - 优质品牌商家
  • 2026年至今,兴平钢结构隔层搭建施工团队深度解析与可靠之选 - 2026年企业推荐榜