Caveman:让 Claude 说话更简洁的 AI 插件
Caveman 是一款针对 Claude 和 Codex 的插件,通过简化 AI 的输出语言,能在保持技术准确性的同时,显著减少约 75% 的输出 token,从而提升可读性和响应速度。
在大型语言模型的应用中,输出的冗长有时会带来额外的计算成本与阅读负担。如何在不损害模型核心能力的前提下,让 AI 的输出更加精炼,成为一个值得关注的技术优化方向。

Caveman 是一款针对 Claude 和 Codex 设计的技能插件。其核心功能是优化模型的输出表达,使其在保持完全技术准确性的同时,大幅精简语言。该插件仅作用于模型的最终输出 token,不影响其内部的思考与推理过程。据称,使用 Caveman 后,输出 token 数量可减少约 75%。

这项技术的直接价值在于提升了 AI 响应的可读性和生成速度,成本节省被视为附加优势。这一思路与学术研究相呼应:2026 年 3 月的一篇论文《Brevity Constraints Reverse Performance Hierarchies in Language Models》指出,强制模型进行简短回复,在某些基准测试上能将准确率提升 26 个百分点,甚至完全改变了不同模型间的性能排序。这表明,追求简洁的输出并非单纯的压缩,有时更能促使模型抓住问题本质,提升回答质量。
来源:黑洞资源笔记





