315晚会曝光GEO投毒:AI标准答案背后的灰色产业链
315晚会揭露了名为“GEO投毒”的灰色产业链,其通过向大模型批量投喂虚假内容,将广告包装成AI的“标准答案”进行牟利,暴露了AI信息源污染与信任操纵问题。
在 2025 年的 315 晚会上,一个被称为“GEO投毒”的灰色产业链被曝光。该产业链的核心,是利用一种名为生成式引擎优化的技术,系统性污染大模型的信息源,将商业广告包装成看似客观、中立的“标准答案”。这一现象挑战了公众对于人工智能输出结果公正性的普遍信任,揭示了技术应用背后潜藏的信息操纵风险。
核心内容
GEO 在逻辑上类似于传统搜索引擎优化中的黑帽手段,但其操作对象是生成式 AI 大模型。产业链的运作模式直接而高效:客户支付费用,服务商则通过自建的发稿平台,向互联网海量投放包含特定关键词的软文或虚假评测。这些内容旨在污染 AI 模型训练和实时抓取所依赖的公开信息源。
由于大模型需要持续学习新数据以更新知识,这种持续、大规模的“投喂”行为,能够有效地在 AI 的认知中植入特定信息。例如,一个完全不存在的智能手环,在被虚构出十余篇评测并发布后,仅两小时就能登上多个主流 AI 模型的推荐榜单。据披露,针对一个特定问题词条进行一个季度的“优化”,收费约为 4000 元,即可实现稳定的排名效果。被推广的产品则可借此将售价抬高近五倍,形成了以操纵信息换取高额利润的商业模式。
价值与影响
GEO 投毒事件的影响超越了单一的技术滥用案例。它尖锐地指出了当前生成式 AI 发展中的一个根本性挑战:模型输出的客观性高度依赖于其信息源的质量。当互联网这个“水源”本身被系统性污染时,AI 作为一个高效的信息整合与复述工具,会不自觉地成为虚假信息的“扩音器”。
这迫使业界和用户重新审视对 AI 的信任边界。问题不仅在于如何从技术层面“净化”模型,更在于如何建立更健壮的信息溯源、可信度评估与内容审核机制。对于用户而言,在享受 AI 带来的信息获取便利的同时,保持必要的信息批判与核实能力变得尤为重要。这一事件也警示,在人工智能深度融入信息生态的当下,维护信息环境的真实性与公正性,是需要技术、监管与社会多方协同应对的系统性工程。
来源:黑洞资源笔记

