Anthropic 指控工业级蒸馏攻击引争议
Anthropic 公开指控 DeepSeek 等中国 AI 公司通过大量 API 调用对 Claude 实施“工业级蒸馏攻击”。然而,Anthropic 自身训练数据来源的版权问题同样受到质疑,事件引发了关于技术...

近日,AI 公司 Anthropic 在社交平台 X 上公开指控三家中国 AI 公司——DeepSeek、Moonshot AI 和 MiniMax,对其模型 Claude 实施了“工业级蒸馏攻击”。Anthropic 称,这些公司创建了超过 2.4 万个账户,与 Claude 进行了逾 1600 万次交互,旨在提取 Claude 的能力以训练其自身模型。这一指控迅速在技术社区引发广泛关注与讨论。
核心内容
Anthropic 将对手的行为定性为“工业级蒸馏攻击”,意指通过大规模、系统性的 API 调用,收集模型输出数据用于训练。然而,社区反馈对此定义存在不同看法。有观点指出,付费使用 API 并记录输出用于模型训练,在过去常被视为行业惯例,如今被冠以“攻击”之名,其合理性存疑。一条被广泛引用的评论直接反问:“‘蒸馏攻击’,你是指我们付钱购买的服务吗?”
与此同时,Anthropic 自身在训练数据方面的做法也成为争议焦点。公开信息显示,Anthropic 曾购买约 100 万册实体书,通过物理切割书脊后进行扫描,以规避版权限制。此外,根据法庭文件,该公司还从 LibGen、Pirate Library Mirror 等影子图书馆下载了约 700 万册书籍,且未支付版权费用,直至在相关诉讼中败诉。这些事实使得 Anthropic 此次指控的道德立场受到挑战。有评论尖锐指出:“你没有资格控诉别人偷了你偷来的东西。”
技术层面也出现了耐人寻味的细节。有用户截图显示,Claude Sonnet 4.6 在对话中曾将自己称为 DeepSeek。更早之前,Claude 也出现过频繁自称 ChatGPT 的情况。这些现象通常被解读为模型训练数据中混入了竞争对手的产出痕迹,进一步模糊了各方在数据使用上的界限。
价值与影响
此次事件超出了单纯的技术或商业纠纷范畴,触及了 AI 行业发展的多个核心议题。首先,它引发了关于闭源模型技术护城河深度的思考。如果竞争对手能够通过 API 调用和模型蒸馏技术,以相对有限的交互次数逼近顶级模型的能力,那么闭源模型公司的核心竞争优势将面临严峻考验。Anthropic 的指控背后,或许正反映了对这种先发优势可持续性的焦虑。
其次,事件凸显了 AI 模型训练中数据版权问题的普遍性与复杂性。无论是通过影子图书馆获取文本,还是利用 API 输出进行模型蒸馏,都游走在现有版权法规的边缘。这促使行业需要更清晰地界定数据使用的合理边界与合法框架。
最后,该事件的时机与表述方式引发了关于地缘政治与行业竞争策略的讨论。有分析认为,Anthropic 选择在 DeepSeek 新模型发布前夕,公开点名中国公司,其目标可能不仅是用户或市场,更是意在影响监管政策,试图构筑非技术性的壁垒。这反映了全球 AI 竞赛中,技术、商业与政策因素日益交织的复杂局面。
总体而言,Anthropic 的指控如同一面多棱镜,折射出当前 AI 行业在技术创新、数据伦理、商业竞争与法规遵从方面面临的共同挑战。
来源:黑洞资源笔记





