TechFoco Logo
首页专题归档站点地图
© 2026 TechFoco. All rights reserved.
文章归档专题网站地图站点地图 XML爬虫规则GitHub
  1. 首页
  2. /
  3. 返回归档
  4. /
  5. Meta REFRAG:通过压缩与强化学习优化RAG

Meta REFRAG:通过压缩与强化学习优化RAG

2025年11月19日•TechFoco 精选

Meta推出的REFRAG技术,通过在嵌入层面对文本块进行压缩,并利用强化学习策略进行相关性筛选,显著减少了送入大语言模型的无关token数量。该方法在提升响应速度、支持更大上下文窗口的同时,保持了模型准确性。

检索增强生成(RAG)系统通过结合外部知识库来增强大语言模型(LLM)的生成能力,已成为解决模型知识局限性的主流方案。然而,传统 RAG 系统在检索阶段往往会返回大量文本块,导致 LLM 需要处理成千上万的无关 token。这不仅造成了高昂的计算成本,也严重影响了系统的响应速度和效率,形成了所谓的“token膨胀”问题。

Article Image
Article Image

核心内容

Meta 提出的 REFRAG 技术,旨在从嵌入(embedding)层面解决上述痛点。其核心创新在于“压缩-筛选-展开”的工作流程。首先,在文档编码阶段,每个文本块被压缩成一个单一的嵌入向量并存入向量数据库。当进行查询时,系统会检索出相关的嵌入块,然后通过一个强化学习策略对这些嵌入进行相关性评分和筛选。只有被判定为最相关的少数嵌入块会被“展开”为完整的 token 向量,而其他相关度较低的块则保持压缩状态或被直接过滤。最终,所有经过处理的信息(包括展开的 token 和压缩的嵌入)被一并输入给 LLM 进行处理。

这种方法带来了显著的性能提升。根据相关测试结果,REFRAG 使得首个 token 的响应速度提升了 30 倍以上,能够支持 16 倍于以往的上下文窗口,同时将需要处理的 token 数量减少了 2 到 4 倍。在 16 个 RAG 基准测试中,其表现超越了 LLaMA。

价值与影响

REFRAG 的价值在于,它没有牺牲 RAG 系统的准确性,而是通过智能筛选机制,精准地提炼出对当前查询最重要的信息,从而优雅地解决了“token膨胀”带来的隐藏成本。这一突破展示了将向量空间操作与强化学习策略相结合,在大模型优化领域的巨大潜力。它预示着未来的检索系统将更加依赖此类智能、动态的筛选策略,而非简单地增加检索数量或扩大上下文窗口。REFRAG 为提升大模型应用效率提供了一个新思路:真正的效率提升,源于对信息的精准提炼,而非资源的无限堆叠。


来源:黑洞资源笔记

相关标签

RAG优化嵌入压缩强化学习Token效率大语言模型

继续阅读

较新文章

NotebookLM Deep Research 功能上线

较早文章

Open Lovable:AI 辅助的 React 网站克隆与代码生成工具

相关文章

查看更多
Gemma 4 长程逻辑推理能力测试观察

Gemma 4 长程逻辑推理能力测试观察

一项针对 Gemma 4 的维吉尼亚密码破解测试显示,该模型在明确指令下可进行长时间深度推理,并在无法解决时选择诚实拒绝而非编造答案,其思维深度具有可调节特性。测试也引发了关于如何更全面评估模型原生推理能力与效率的讨论。

2026年04月08日
Gemma 4大语言模型
AgentScope:构建可见、可理解、可信赖的智能代理框架

AgentScope:构建可见、可理解、可信赖的智能代理框架

AgentScope 是一个用于构建智能代理的 Python 框架,旨在简化模型推理、工具调用、多代理协作等复杂流程的开发与部署。

2026年03月29日
智能代理多代理系统
AI自主科研实验:Codex提出新评估方法

AI自主科研实验:Codex提出新评估方法

一项实验让Codex自主解决一个真实的机器学习研究问题。AI不仅完成了任务,还独立提出了一个文献中未见的新评估方法,揭示了任务设计、奖励黑客和参考点限制等关键教训。

2026年03月29日
AI科研大语言模型
中国大语言模型市场格局与技术观察

中国大语言模型市场格局与技术观察

本文基于社区讨论,梳理了中国大语言模型市场的三层竞争格局,分析了字节跳动、DeepSeek、六小虎等主要参与者的市场地位、商业模式及部分技术特点。

2026年03月26日
大语言模型中国AI
OpenEnv:强化学习环境的容器化部署与接口库

OpenEnv:强化学习环境的容器化部署与接口库

OpenEnv 是一个基于 Gymnasium API 的强化学习环境接口库,旨在通过容器化隔离和 WebSocket 通信,简化环境的开发、部署与管理流程。

2026年03月26日
强化学习容器化
2024-2026年开源大模型架构图谱:收敛与分裂

2024-2026年开源大模型架构图谱:收敛与分裂

本文基于 Sebastian Raschka 整理的 40 多个开源大模型架构图谱,分析了 2024 年至 2026 年间 LLM 架构的演进趋势。核心观察是设计语言趋同,但具体技术方案呈现分裂与混搭,反映出行业正...

2026年03月19日
大语言模型LLM架构