Agentic RAG: AI Agent驱动的检索增强生成

Agentic RAG: AI Agent驱动的检索增强生成 ArXiv ID: 2501.09136作者: Aditi Singh, Abul Ehtesham, Saket Kumar, Tala Talaei Khoei发布日期: 2025年1月15日 (最后更新: 2025年2月4日)分类: AI Agents / Context Engineering 核心特性Agentic RAG是什么?传统RAG系统采用被动检索模式: 接收查询 → 检索 → 生成答案。这种模式存在局限: 静态流程: 无法根据中间结果动态调整检索策略 单次检索: 难以处理需要多步推理的复杂问题 缺乏自主性: 不能主动判断何时需要检索 Agentic RAG通过将自主AI Agent嵌入RAG管道,实现: 自主决策: Agent决定何时检索、检索什么、如何组合信息 动态规划: 根据任务复...

阅读全文

Graph Retrieval-Augmented Generation: 图结构增强的RAG系统综述

Graph Retrieval-Augmented Generation: 图结构增强的RAG系统综述 ArXiv ID: 2408.08921作者: Boci Peng, Yun Zhu, Yongchao Liu, Xiaohe Bo, Haizhou Shi, Chuntao Hong, Yan Zhang, Siliang Tang发布日期: 2024年8月15日 (最后更新: 2024年9月10日)分类: Context EngineeringGitHub: pengboci/GraphRAG-Survey 论文摘要本文是GraphRAG(Graph Retrieval-Augmented Generation)领域的首个综合性调研,系统地回顾了将图结构融入检索增强生成(RAG)系统的方法论。 传统的RAG系统主要依赖非结构化文本检索,往往难以捕捉实体间的复杂关...

阅读全文

A Survey of Context Engineering for Large Language Models: 上下文工程全景综述

A Survey of Context Engineering for Large Language Models: 上下文工程全景综述 ArXiv ID: 2507.13334作者: Lingrui Mei, Jiayu Yao, Yuyao Ge, Yiwei Wang, Baolong Bi, Yujun Cai, Jiazhi Liu, Mingyu Li, Zhong-Zhi Li, Duzhen Zhang, Chenlin Zhou, Jiayi Mao, Tianze Xia, Jiafeng Guo, Shenghua Liu (15位作者)发布日期: 2025年7月17日 (最后更新: 2025年7月21日)分类: Context Engineering论文规模: 分析了超过1400篇研究论文 论文摘要这是上下文工程(Context Engineering)领域...

阅读全文

测试时扩展在知识密集型任务中尚不有效

测试时扩展在知识密集型任务中尚不有效 ArXiv ID: 2509.06861作者: James Xu Zhao, Bryan Hooi, See-Kiong Ng机构: National University of Singapore发布日期: 2025-09-08 摘要测试时扩展通过允许模型生成长推理链来增加推理时计算,在许多领域展现出强大性能。然而,本研究表明,这种方法对于需要高事实准确性和低幻觉率的知识密集型任务尚不有效。研究系统评估了测试时扩展技术在开放域问答、事实核查和专业领域查询上的表现,发现虽然测试时扩展能提升逻辑推理能力,但在需要准确事实知识的任务上效果有限,甚至可能因为过度推理而引入更多幻觉。 问题背景测试时扩展的成功与局限123456789101112131415161718192021测试时扩展的适用性:擅长领域 ✓ ...

阅读全文

GraphRAG-R1: 图检索增强生成与过程约束强化学习

GraphRAG-R1: 图检索增强生成与过程约束强化学习 ArXiv ID: 2507.23581作者: Chuanyue Yu, Kuo Zhao, Yuhan Li 等机构: Tsinghua University发表: The Web Conference 2026 (WWW’26)发布日期: 2025-07-31 摘要现有的 GraphRAG 方法在处理复杂多跳推理任务时存在局限性。GraphRAG-R1 提出了一种自适应 GraphRAG 框架,通过过程约束的基于结果的强化学习来训练 LLM,增强其多跳推理能力。框架设计了两个关键奖励机制:渐进式检索衰减 (PRA) 解决浅层检索问题,成本感知 F1(CAF) 平衡性能与开销。在域内和域外数据集上均超越 SOTA 方法。 问题背景传统 GraphRAG 的局限12345678910111213141516171819...

阅读全文

© 2026 Generative AI Discovery All Rights Reserved.
Theme by hiero