重构 Claude 使用逻辑:从自动补全到 AI 协作伙伴
将 Andrej Karpathy 的 4 条基础规则扩展为 12 条指令,可大幅降低 Claude 的编程错误率。核心在于将 AI 从自动补全工具升级为遵循行为契约的协作伙伴,并引入硬核约束,如避免模型做确定性逻...
许多开发者在使用 Claude 时,习惯将其视为一个自动补全工具,通过 CLAUDE.md 文件配置偏好清单。然而,这种做法往往效果不佳:要么文件塞满 4000 个 token 导致模型完全无视,要么干脆空着。这就像给一个极度聪明的实习生发了一本厚得没法读的员工手册,最后他只能靠直觉乱撞。

Andrej Karpathy 最初提出的 4 条规则解决了“写代码”时的基本逻辑问题:别瞎猜、保持简单、外科手术式修改、目标导向。这确实把错误率压了下来,但现在的 AI 已经不是只会写单行代码的补全工具了,它们是会在多个文件间跳转、执行多步任务的 Agent。
核心内容
为了补齐现代 Agent 工作流中的漏洞,需要将 Karpathy 的 4 条基础规则扩展为 12 条指令。核心在于将 AI 从“自动补全工具”升级为遵循“行为契约”的协作伙伴。
当前的痛点包括:Agent 会在长任务中迷失方向,或者在两个不同的代码风格之间试图“取平均值”,结果写出逻辑混乱的缝合怪。
引入的硬核约束包括:
- 避免模型去做确定性的逻辑判断,那是代码该干的事,不是概率模型该干的事。
- 设置严格的 Token 预算,防止模型陷入无休止的循环,直到烧光额度。
- 要求模型“大声失败”:如果迁移漏掉了记录,或者测试只是在测常量,它必须直接告诉用户“我没把握”,而不是伪装成成功。
值得注意的是,规则并非越多越好。当规则超过 200 行,模型就会开始机械地模仿“存在规则”这个事实,而不再理解规则本身。
价值与影响
这本质上是在为 AI 编写一套“操作系统协议”。规则不是建议,而是契约。通过将 AI 从自动补全工具升级为遵循行为契约的协作伙伴,可以大幅降低编程错误率,让 Claude 在复杂多步任务中保持方向感和一致性。




