免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

RAG又进化了!微软整了个企业级AgenticRAG

发布日期:2026-05-11 20:34:46 浏览次数: 1521
作者:PaperToday

微信搜一搜,关注“PaperToday”

推荐语

微软AgenticRAG突破传统瓶颈,让模型像人类一样主动、迭代地检索信息,在复杂查询上实现性能碾压。

核心内容:
1. AgenticRAG的核心设计:赋予模型四种工具,在循环中自主迭代检索
2. 三大基准测试结果:在长文档、企业客服、金融问答领域全面大幅领先
3. 关键发现:范式转换(从单次检索到智能体工具调用)是性能飞跃的主因

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

如果你做过企业级 RAG,你一定经历过这种无奈:不管怎么调向量模型、换 embedding、加 HyDE 改写,复杂查询的效果就是上不去。大多数人会归咎于搜索引擎——召回率不够、排序不准、语料没处理好。

微软的 AgenticRAG 团队发现,问题根本不在这些地方。真正的瓶颈是:传统 RAG 在搜索阶段就把候选集锁死了,模型连"我觉得信息不够,让我回去再搜一次"的权利都没有。

四个工具,一个循环

AgenticRAG 的设计核心是让模型像人一样检索信息。它给了模型四个工具

Agentic Loop 迭代架构
Agentic Loop 迭代架构
  • search:广撒网。一次调用最多发 5 个改写查询,并行搜索企业文档库,返回带元数据的片段和引用 ID
  • find:精确定位。在指定文档内搜索关键词或语义匹配,类似增强版 Ctrl+F
  • open:按行窗口打开完整文档内容。模型可以指定从第几行开始读,像翻书一样导航长文档
  • summarize:上下文快溢出时压缩历史,保留被引用的关键证据

模型在一个最多 15 轮的迭代循环里自主决定每一步调哪个工具。它可以先搜索拿到候选列表,然后打开最有希望的文档精读,发现不够再换关键词重新搜索,最后综合所有证据生成带引用的答案。

实际运行中,平均每个查询只需要 4.48–4.79 次工具调用,远低于 15 次上限。也就是说,模型通常 4–5 步就能收敛到足够好的答案。

上下文管理机制
上下文管理机制

为了防止长推理链把上下文撑爆,系统在对话达到 128K token 阈值 时自动触发摘要压缩,保留模型标记的引用材料,丢弃其余内容。

三个基准,全面碾压

实验覆盖了三个完全不同领域的基准测试:

BRIGHT(长文档检索)49.6% recall@1(Claude Sonnet 4.5),比最强嵌入模型 Qwen 高 21.8 个百分点,比需要微调的 ReDI 高 23.6 个百分点。在经济学、机器人、心理学等技术领域,提升幅度甚至超过 25–33 个百分点。

WixQA(企业客服 QA)0.96 事实准确率,比最佳基线高 13%。在模拟复杂推理问题的 Simulated 分割上,优势更明显——22% 的相对提升

WixQA 实验结果
WixQA 实验结果

FinanceBench(金融文档问答)92% 回答正确率,传统 RAG 被甩开 3.8 倍。更关键的是,oracle 设定(直接给模型标准答案原文)的正确率是 94%——AgenticRAG 只差 2 个百分点就触碰到了理论上限

消融实验:最大的飞跃来自范式转换

消融实验揭示了最有价值的发现:效果提升的最大贡献不是某个具体工具,而是从"单次检索"到"agentic 工具调用"的范式转换。

模式
Recall@1
提升
单次搜索
8.41%
基线
Agentic(GPT-5-mini)
43.49%
5.2 倍
Agentic(Claude Sonnet 4.5)
49.59%
5.9 倍

多查询搜索让工具调用减少了 29%(4.79 次 vs 6.79 次),但效果持平——说明它提升的是效率而非质量。文档内导航(find/open)提升精度但贡献次之。最大的单步飞跃始终是"给模型工具"这一步。

另一个有趣的发现是两个模型的策略差异。**Claude 偏好"精读"——搜索更少但打开文档更多,语义查找使用频率是 GPT 的 3 倍GPT-5-mini 偏好"广撒"**——更多搜索、更多查询改写。最终 Claude 靠深挖策略赢了 6.1 个百分点,说明在长文档场景下,精准深入比广泛浏览更有效。

这意味着什么

AgenticRAG 的核心价值不在于它提出了某个新算法,而在于它证明了一件事:RAG 的性能天花板不是搜索引擎决定的,而是你愿不愿意让模型自己掌控"搜什么、读哪里、什么时候够"。

对企业 AI 团队来说,这个方案的落地门槛很低——不需要换搜索引擎,不需要微调模型,只需要在现有 RAG 上加一层工具壳。论文也提到在实际部署中,通过路由策略把简单查询走传统 RAG(快、便宜),复杂查询走 Agentic RAG(慢、准),是平衡成本和效果的关键。

企业知识库Agentic RAG 完整示例

token 成本是传统 RAG 的 2.6–7.8 倍,但换来的是 5.9 倍的召回提升和接近理论上限的问答准确率。对真正需要深度文档分析的企业场景来说,这笔账是算得过来的。

论文标题: AgenticRAG: Agentic Retrieval for Enterprise Knowledge Bases
论文链接: https://arxiv.org/abs/2605.05538v1

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询