SPEC-AGENTS.md 这个项目升级到 2.0:
- 加入对话前的意图识别,让 AI 不再马上落地执行,而是先与用户明确意图
- 加入专家模块,在执行特定领域的任务时,动态调用,产生更高质量的结果
如下是简单的发布文案:
* Spec-AGENTS v2.0:动态意图路由
** 一言总结:v2.0 将意图与执行解耦。AI 现在会先进行“预飞行检查”,明确你的意图,再动态加载最适合任务的模块。
** 问题:AI 是个锤子,把所有东西都当钉子
标准 AI 假设每个提示都是立即执行的请求。当你需要思考时,它试图写代码;当你需要精确实现时,它却给你泛泛而谈的建议。
- *上下文错配*:你想要一个快速脚本,它却给你一堂课;你想要系统架构,它却给你一个代码片段。
- *上下文污染*:一个巨大的提示试图处理所有事情,使 AI 混乱,降低了其在特定任务上的效率。
** 解决方案:大脑 + 工具包架构
Spec-AGENTS v2.0 引入了两步“调度系统”:
*** 第一步:路由器(核心协议)
在执行任何操作之前,AGENTS.md 强制 AI 暂停并询问:“用户现在想实现什么?”
*** 第二步:专家(动态模块)
一旦意图明确,AI 就会从 =.phrase/modules/= 库中获取特定的“技能模块”:
- *意图:启动阶段* → 加载 =pr_faq.md=
- *策略*:“别急着开发。”
- *动作*:切换到面试模式,澄清产品愿景。
- *意图:实现阶段* → 加载 =linus_coding.md=
- *策略*:“有品味地编码。”
- *动作*:强制执行 5 层思维模型并进行严格的代码审查。
- *意图:沟通阶段* → 加载 =copywriting.md=
- *策略*:“销售,而不是讲述。”
- *动作*:将转化原则应用于你的文档。
** 最小可行验证(“路由”测试)
1. 升级到 v2.0。
2. 测试 A(项目经理路线):问“我有一个插件的模糊想法。”
- 结果:AI 识别出“模糊性”,加载 PR/FAQ 模块,并开始面试。
3. 测试 B(程序员路线):问“重构这个类让它更清晰。”
- 结果:AI 识别出“实现”,加载 Linus 模块,并对你的数据结构提出批评。
- 加入对话前的意图识别,让 AI 不再马上落地执行,而是先与用户明确意图
- 加入专家模块,在执行特定领域的任务时,动态调用,产生更高质量的结果
如下是简单的发布文案:
* Spec-AGENTS v2.0:动态意图路由
** 一言总结:v2.0 将意图与执行解耦。AI 现在会先进行“预飞行检查”,明确你的意图,再动态加载最适合任务的模块。
** 问题:AI 是个锤子,把所有东西都当钉子
标准 AI 假设每个提示都是立即执行的请求。当你需要思考时,它试图写代码;当你需要精确实现时,它却给你泛泛而谈的建议。
- *上下文错配*:你想要一个快速脚本,它却给你一堂课;你想要系统架构,它却给你一个代码片段。
- *上下文污染*:一个巨大的提示试图处理所有事情,使 AI 混乱,降低了其在特定任务上的效率。
** 解决方案:大脑 + 工具包架构
Spec-AGENTS v2.0 引入了两步“调度系统”:
*** 第一步:路由器(核心协议)
在执行任何操作之前,AGENTS.md 强制 AI 暂停并询问:“用户现在想实现什么?”
*** 第二步:专家(动态模块)
一旦意图明确,AI 就会从 =.phrase/modules/= 库中获取特定的“技能模块”:
- *意图:启动阶段* → 加载 =pr_faq.md=
- *策略*:“别急着开发。”
- *动作*:切换到面试模式,澄清产品愿景。
- *意图:实现阶段* → 加载 =linus_coding.md=
- *策略*:“有品味地编码。”
- *动作*:强制执行 5 层思维模型并进行严格的代码审查。
- *意图:沟通阶段* → 加载 =copywriting.md=
- *策略*:“销售,而不是讲述。”
- *动作*:将转化原则应用于你的文档。
** 最小可行验证(“路由”测试)
1. 升级到 v2.0。
2. 测试 A(项目经理路线):问“我有一个插件的模糊想法。”
- 结果:AI 识别出“模糊性”,加载 PR/FAQ 模块,并开始面试。
3. 测试 B(程序员路线):问“重构这个类让它更清晰。”
- 结果:AI 识别出“实现”,加载 Linus 模块,并对你的数据结构提出批评。