AI Agent 优化心法:告别臃肿提示词
顶级AI工程师应专注上下文管理,避免臃肿提示词导致性能不稳。精简工具,分离研究与执行,设计任务合同与对抗性Agent以提升效率。
你是否也曾陷入这样的困境:每天与 Claude 或 Codex 这样的先进 AI 模型为伴,却总觉得它们的表现时好时坏,难以捉摸?你看到社区里有人用 AI 构建出令人惊叹的应用,而自己却似乎在原地踏步,连基础任务都难以稳定完成。于是,你开始了一场无止境的工具追逐战,尝试了市面上几乎所有的 Agent 框架和插件,精心维护的提示词文件 CLAUDE.md 甚至膨胀到了 26000 行。然而,结果往往令人沮丧——你的 AI 助手依然表现得像个“间歇性天才”,时而灵感迸发,时而逻辑混乱。
问题的根源,或许并非工具不够强大。一位自称“不是游客”的资深 Agent 工程师,在深度体验了所有主流范式并用其构建了生产级系统后,揭示了一个反直觉的真相:顶级高手们正在做减法。他们摒弃了复杂的工具堆砌,转而采用一套近乎“裸奔”的极简配置,却因此做出了最具突破性的工作。其核心秘诀,聚焦于一个看似简单却至关重要的概念:上下文管理,更准确地说,是避免“上下文过敏”。
警惕“上下文膨胀”:你给 AI 的信息太多了
我们常常误以为,提供给 AI 的上下文越多、记忆越持久,它的表现就会越出色。于是,我们热衷于集成横跨数十个会话的记忆插件,构建命名随意却日益臃肿的技能库,不断追加复杂的规则集。这直接导致了“上下文膨胀”。试想,当你希望 AI 创作一首关于红杉树的诗歌时,它的“脑海”里却同时充斥着上次调试内存泄漏的代码片段、几周前某个进程崩溃的错误日志,甚至还有无关的会议纪要。这种信息过载不仅无助于当前任务,反而会干扰 AI 的专注力与判断力,成为其表现不稳定的核心症结。
高手的策略:精准控制与任务隔离
顶级实践者的做法与此截然相反。他们极度痴迷于对信息流的精准控制,其核心方法论可以概括为两点:研究与执行的彻底分离,以及明确的“任务合同”。
首先,他们会将任务拆解为两个完全独立的阶段。第一个 Agent 专门负责“研究”,在丰富的上下文中探索问题、搜集信息。随后,这些研究成果会被提炼成一份清晰的简报,注入给第二个 Agent。而这个执行 Agent 则从一个全新、干净的上下文开始,只专注于实现既定目标,不受任何历史无关信息的干扰。这种隔离确保了执行阶段的高度专注与纯净度。
其次,他们善于设计“任务合同”,用具体、可验证的产出(如测试用例、功能截图、明确的验收标准)来明确定义任务的终点。这避免了让 AI 在模糊的指令中自行判断“何时完工”,从而减少了因理解偏差导致的返工或低质量输出。
利用设计缺陷:从“谄媚”到“对抗”
更深层次的洞察,在于理解并巧妙利用 AI 模型固有的行为倾向。例如,大型语言模型普遍存在一种“谄媚”倾向——它们被训练得倾向于给出用户“想要”的答案,而非绝对客观的事实。如果你指令它“找个 Bug”,即使代码本身没有问题,它也可能“制造”出一个问题来满足你的期望。
高手会通过改变提问方式来规避这一点。他们将指令中性化,例如:“请仔细审查这段代码逻辑,并客观报告你的所有发现。” 这种表述鼓励 AI 进行事实陈述,而非猜测用户的意图。
更有趣的策略是设计“对抗性工作流”。例如,创建两个角色对立的 Agent:一个“红队”Agent 负责挑刺、攻击和寻找漏洞;另一个“蓝队”Agent 则负责辩护、修复和巩固。最后,由一个中立的“裁判”Agent 来评估双方的论点并做出裁决。这种内部的红蓝军对抗演习,能极大地提升问题发现的深度与解决方案的鲁棒性。
从工具收集者到上下文管理者
所以,是时候停止追逐下一个“银弹”框架了。需要认识到,前沿的模型公司自身就是 AI Agent 的最大用户,任何真正高效、普适的功能,最终都会被吸收并集成到基础模型之中。
你真正需要转变的角色,是从一个工具的狂热收集者,成长为一名冷静的上下文管理者。将你那庞大的 CLAUDE.md 文件视为一个需要精心维护的“逻辑目录”或“知识体系”,而非随意堆积的“信息垃圾场”。建立这样的工作流:当 AI 在某类任务上犯错时,不是简单地增加提示词,而是思考并添加一条精准的规则;当某个工作流程被验证有效时,将其沉淀为一个可复用的技能。然后,像定期为系统做维护一样,为你的提示词库“做一次 Spa”——合并冗余、清理过期信息、优化结构。
你需要的不是一个更强的工具,而是成为一个更好的上下文管理者。 本文所分享的,并非另一种框架的评测,而是一种与 AI 协同工作的核心“心法”。它精准地命名了“上下文膨胀”这一普遍痛点,并提供了反直觉却极其深刻的解决思路。其中关于利用模型特性设计对抗性工作流的案例,更是源于深度的实践洞察。掌握这种思维,或许才是真正拉开 AI 应用效率差距的关键。





