先别写更长的 prompt。先判断这个能力到底应该被做成什么。
一套用于创建、审计、重写和进化 AI Skill 的设计内核。
它不追求把提示词写得更长,而是帮助你把经验变成可复用、可验证、可迭代的 AI 工作能力。
用户 ❯ 帮我做一个选品分析 Skill
Kernel ❯ 先不直接写 Skill。
源层意图:你真正要建立的是“跨境选品判断能力”,不是一段固定提示词。
当前缺口可能有四类:
1. 市场数据来源
2. 竞品分析方法
3. 利润/风险判断框架
4. 可复测的输出标准
载体判断:
- 如果你每次分析的市场和数据源都变,先做知识库 + checklist。
- 如果你已经有稳定 SOP,再沉淀成 Skill。
- 如果需要抓网页和定期监控,应补 adapter 或 Agent workflow。
所以当前第一步不是写成品 Skill,而是定义:
输入、证据、评分表、数据源、失败边界。
低质量写法 ❯ 不要瞎编,不要偷懒,不要输出废话。
Kernel 改写 ❯ 没有来源时,标注“未验证”;
列出缺失证据和获取路径;
不把未验证内容写入最终结论;
如果关键证据缺失,输出下一步调研清单而不是假装完成。
低质量写法 ❯ 你是一个专业、高效、严谨的 Skill 专家。
Kernel 改写 ❯ 你是 Skill 设计审计员。
你优先寻找角色冲突、证据缺口、触发误路由和不可验证的自评。
你不急着重写,先证明问题存在。
你相信测试输出、来源证据、失败回放和用户确认的真实结果,高于模型自我描述。
这不是文案美化。它改变的是 AI 的默认行为路径:先诊断,再选择载体;先定义岗位,再写规则;先找证据,再宣称完成。
如果你的环境支持 skills.sh / Claude Code Skill 安装:
npx skills add chenye1313/skill-design-kernel然后在 Claude Code 里:
用 skill-design-kernel 审计这个 Skill。
或者:
用 skill-design-kernel 帮我创建一个新 Skill。
先做 source-layer intent 和 artifact path decision,不要直接写成品。
如果你的环境不能直接安装 Skill,把根目录的 SKILL.md 提供给 AI,并告诉它按里面的 Default Workflow 执行:
请读取并使用这个 Skill:
SKILL.md
我的任务是:
[粘贴你要创建、审计、重写或进化的 Skill / Agent 设定]
请先输出:
1. source-layer intent packet
2. artifact path decision
3. 是否真的需要 Skill
4. 如果需要,再输出 Skill 结构和重写方案
很多 AI Skill 写坏,不是因为写得少,而是因为没有回答更底层的问题。
| 问题 | 低质量写法 | Kernel 的做法 |
|---|---|---|
| 该不该做 Skill | 用户说要 Skill 就直接写 | 先判断真实意图和最小有效载体 |
| AI 是谁 | “你是专业助手” | 定义具体工作岗位、证据偏好和压力下行为 |
| 边界怎么写 | 堆 不要、禁止、必须 |
改成风险、替代动作、fallback、停止条件 |
| 怎么知道变好了 | “我检查过了” | 用来源、测试、评分表、失败回放、版本账本 |
| 能否真实运行 | 只看文本漂亮 | 对齐 tools、input、权限、上下文增长、压缩、终止和验证 |
Skill Design Kernel 把一次 Skill 工作拆成八层:
| 层次 | 问题 |
|---|---|
| 源层意图 | 用户真正想建立什么能力? |
| 现实证据 | 当前已有材料、来源、环境和约束是什么? |
| 载体选择 | 应该是 Skill、知识库、prompt、checklist、adapter、eval、Agent Team,还是一次性回答? |
| 工作人格 | 这个 Skill 到底是什么岗位?自然相信什么证据? |
| 工作场 | 输入、输出、工具、流程、边界、fallback 是什么? |
| Agent Loop | 它进入真实运行循环后,如何处理工具输出、上下文、权限、压缩和完成判断? |
| 证据闭环 | 什么证明它做对了?什么证明它失败了? |
| 进化机制 | 失败后更新哪条原则、证据、测试或版本记录? |
核心协议:
Intent -> Reality -> Path -> Capability Gap -> Work Field -> Runtime Loop -> Evidence -> Evolution
这个 Skill 明确做不到这些事:
- 不能证明某篇 AI 心理论文已经成为通用 runtime 规律。
- 不能保证所有平台、所有模型、所有 agent harness 都稳定适用。
- 不能替你跳过真实测试。
- 不能把“一次 prompt 润色”伪装成可复用 Skill。
- 不能把所有材料塞进知识库,然后称之为知识工程。
一个不告诉你局限在哪里的 Skill,不值得信任。
使用时,Kernel 会按这个顺序工作:
1. 源层诊断
先识别真实能力目标,而不是默认创建 Skill。
2. 载体选择
判断当前最合适的是 Skill、知识库、prompt、checklist、adapter、eval、Agent Team、research brief,还是直接回答。
3. 工作人格定义
把“专业助手”改成稳定岗位:它相信什么、优先做什么、不确定时怎么降级。
4. 负面规则重写
把 不要 X 改成:
当风险 Y 出现时,采取替代动作 Z;如果仍无法满足目标 G,则停止或降级。
5. Agent Loop 对齐
检查 Skill 是否适应真实运行环境:instructions、tools、input history、权限、工具输出、上下文窗口、prompt cache、compaction 和最终验证。
6. 证据与测试
用 claim ledger、evidence cards、eval rubric、behavior test plan 管理可验证性。
7. 递归进化
每次失败都要回答:这是偶发错误,还是缺一条可复用原则、证据或测试?
skill-design-kernel/
├── SKILL.md # 可安装 Skill 入口
├── references/ # AI 读取的核心协议和证据
│ ├── MANIFESTO.md
│ ├── SKILL_DESIGN_PROTOCOL.md
│ ├── SOURCE_LAYER_RECURSION.md
│ ├── claim-ledger.md
│ ├── evidence-cards.md
│ ├── eval-rubric.md
│ ├── eval-cases.md
│ ├── source-map.md
│ └── adapters.md
├── docs/ # 给人看的解释、正文、FAQ
├── examples/ # 可复制使用的提示词示例
├── governance/ # 版本、验收、证据维护、演化记录
├── tests/ # 行为测试计划和运行记录
├── PACKAGE_MANIFEST.md
└── LICENSE
用 skill-design-kernel 帮我创建一个新 Skill。
主题:
[写主题]
请先判断:
- 这个需求是否真的需要 Skill
- 如果需要,它的 source-layer intent 是什么
- 它的工作人格是什么
- 它需要哪些 references / scripts / evals
- 它有哪些 runtime-loop 风险
- 最后再生成 SKILL.md 草案
用 skill-design-kernel 审计下面这个 Skill。
请输出:
- rubric score
- strongest design features
- persona conflicts
- unsupported claims
- negative-rule problems
- platform hardcoding
- identity / protocol / tool layer 混淆
- minimum evidence package
- concrete rewrite operations
Skill 内容如下:
[粘贴或给路径]
用 skill-design-kernel 做一次 evolution pass。
观察到的问题:
[写这次失败、困惑、用户反馈、测试结果]
请输出:
- affected claim or rule
- proposed change
- evidence needed
- eval to rerun
- ledger update
- 是否要升级版本
更多示例见 examples/usage-prompts.md。
当前版本:0.2.1
状态:
- 结构验证通过。
AX-010已完成 Codex agent-loop 行级证据补强。- 行为 eval 尚未完整执行。
不要把它宣传成“完全验证的通用 Skill 理论”。它现在是一个可运行、可审计、可继续进化的设计内核。
很多人把 Skill 当作更长的提示词。
但真正有价值的 Skill,不是把限制写满,而是把一种工作能力固化下来:它知道自己是什么岗位,知道该相信什么证据,知道什么时候停止,知道失败后如何进化。
这套 Kernel 来自一次递归过程:从 AI 心理学论文、既有 Skill 萃取、个人 Skill 架构、Accio 架构师审计、Codex agent loop 分析中,逐步沉淀出一套更高层的 Skill 设计哲学。
它不是“写 Skill 的模板”。它是一个判断系统。
MIT — 可自由使用、修改、传播。请保留来源说明。
Skill 不是高级 prompt。
Skill 是 AI 的工作场、证据系统和进化回路。