Memory in the Age of AI Agents
ArXiv ID: 2512.13564作者: Yuyang Hu, Wangchunshu Zhou, Yixin Liu 等 47 位作者发布日期: 2025-12-15分类: context-engineering
摘要记忆已成为(并将持续是)基础模型智能体的核心能力。随着智能体记忆研究的快速扩展和前所未有的关注,该领域也变得日益碎片化 – 现有工作在动机、实现和评估协议上存在显著差异。传统的长期/短期记忆分类已不足以涵盖当代智能体记忆系统的多样性。
本文提供了一个全面的、多视角的智能体记忆研究全景,明确界定了智能体记忆的范畴,并将其与 LLM 记忆、RAG 和上下文工程等相关概念区分开来。
主要贡献1. 三视角分析框架提出了一个从三个维度理解智能体记忆的统一框架:
形式视角 (Forms)
Token ...
Claude高级工具使用:工具搜索、程序化调用与使用示例三大新功能
Claude高级工具使用:工具搜索、程序化调用与使用示例三大新功能
来源: Anthropic Engineering Blog作者: Bin Wu 及 Claude Developer Platform 团队发布日期: 2025-11-24分类: ai-agents
概述Anthropic在Claude开发者平台推出三项高级工具使用Beta功能,分别解决传统工具使用的三大瓶颈:工具定义的上下文膨胀(可超过50,000 tokens)、每次调用的推理开销、以及JSON Schema无法表达使用模式的参数歧义问题。这三项功能将AI Agent从”简单函数调用”推向”智能编排”的新阶段。
核心内容传统工具使用的三大瓶颈
上下文膨胀:工具Schema在Agent处理用户请求前就可能消耗50,000+个token
推理开销:每次工具调用需要完整模型推理,中间结果在上下文中累积
参数歧义:J...
LinearRAG: 基于线性图的大规模语料检索增强生成
论文概述LinearRAG是一种针对大规模语料库的新型检索增强生成框架,旨在解决当前RAG系统在处理大规模非结构化语料和不可靠知识图谱构建方面的局限性。该方法的核心创新在于构建了一个名为”三图”(Tri-Graph)的轻量级图结构,通过避免不稳定的关系建模,实现了与语料库规模呈线性关系的扩展能力。LinearRAG采用两阶段检索策略,在处理复杂推理任务时能够更准确地定位相关段落,有效减少了大语言模型的幻觉问题。
论文信息:
发布时间:2025-10-11
作者:Luyao Zhuang, Shengyuan Chen, Yilin Xiao, Huachi Zhou, Yujing Zhang, Hao Chen, Qinggang Zhang, Xiao Huang
研究方向:上下文工程 (Context Engineering), 检索增强生成 (Retrieval-Augme...
AI Agent的有效上下文工程
文章概述本文由 Anthropic 应用 AI 团队撰写,介绍了上下文工程(Context Engineering)这一概念,它是提示工程(Prompt Engineering)在 AI Agent 时代的进化形态。随着大语言模型能力的提升,挑战不再仅仅是编写完美的提示词,而是如何策略性地管理进入模型有限注意力预算的信息。文章深入探讨了系统提示词设计、工具定义、上下文检索策略,以及长时任务的技术手段,为构建高效可靠的 AI Agent 提供了实践指南。
文章信息:
发布时间:2025-09-29
作者:Prithvi Rajasekaran, Ethan Dixon, Carly Ryan, Jeremy Hadfield
机构:Anthropic Applied AI Team
研究方向:上下文工程 (Context Engineering), AI Agent 架构
核心技术:...
Memory-R1: 通过强化学习增强大语言模型Agent的记忆管理能力
论文概述Memory-R1是一个创新性的强化学习框架,旨在解决大语言模型的无状态特性所带来的记忆局限问题。该框架通过引入两个专门化的智能体来实现自适应的外部记忆管理:记忆管理器(Memory Manager)负责学习结构化的记忆操作(ADD、UPDATE、DELETE),而回答智能体(Answer Agent)则负责预选和推理相关的记忆条目。Memory-R1的突破性在于使用结果驱动的强化学习技术,在极少监督的情况下实现高效的记忆管理。
论文信息:
发布时间:2025-08-27
作者:Sikuan Yan, Xiufeng Yang, Zuchao Huang, Ercong Nie, Zifeng Ding, Zonggen Li, Xiaowen Ma, Kristian Kersting, Jeff Z. Pan, Hinrich Schütze, Volker Tresp...
Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
ArXiv ID: 2504.19413作者: Prateek Chhikara, Dev Khant, Saket Aryan, Taranjeet Singh, Deshraj Yadav发布日期: 2025-04-28分类: context-engineering
摘要大语言模型的固定上下文窗口在维持长期多轮对话一致性方面存在根本性挑战。Mem0 提出了一种面向生产环境的可扩展记忆架构,能够从持续对话中动态提取、整合和检索关键信息。增强版本利用图结构记忆表示来建模对话元素间的关系。
主要贡献1. 可扩展记忆架构Mem0 的核心是一个以记忆为中心的架构,具备三个关键能力:
动态提取:从对话流中自动识别和提取关键信息
智能整合:将分散...
大语言模型时代的RAG评估:综合性调研
论文概述这篇综述性论文系统地回顾了检索增强生成(RAG)系统在大语言模型时代的评估方法和框架,为这一快速发展的领域提供了全面的技术图谱。论文深入分析了RAG评估的多个维度,包括系统性能、事实准确性、安全性和计算效率等核心指标,系统性地回顾了传统评估方法,并详细探讨了针对LLM驱动的RAG系统的新兴评估技术。此外,还编译和分类了大量RAG专用数据集,为研究者选择合适的评估基准提供了宝贵参考。
论文信息:
发布时间:2025-04-21
作者:Aoran Gan, Hao Yu, Kai Zhang, Qi Liu, Wenyu Yan, Zhenya Huang, Shiwei Tong, Guoping Hu
研究方向:上下文工程 (Context Engineering), 检索增强生成 (Retrieval-Augmented Generation), 评估方法 (Evalua...
Infinite Retrieval: 基于注意力增强的无限长上下文处理
论文概述Infinite Retrieval(InfiniRetri)是一项突破性的研究成果,解决了大语言模型在处理超长上下文输入时面临的核心挑战。该方法的创新之处在于利用模型自身的注意力信息来实现对无限长输入的精确检索,而无需任何额外训练。研究团队发现模型的注意力分布与生成答案之间存在强相关性,基于这一洞察设计了InfiniRetri方法。在Needle-In-a-Haystack测试中,该方法处理超过100万token时达到100%准确率,在真实场景中带来高达288%的性能提升。
论文信息:
发布时间:2025-02-18
作者:Xiaoju Ye, Zhichun Wang, Jingyuan Wang
研究方向:上下文工程 (Context Engineering), 长上下文处理 (Long-Context Processing)
核心技术:注意力增强 (Attentio...
A-MEM: Agentic Memory for LLM Agents
A-MEM: Agentic Memory for LLM Agents
ArXiv ID: 2502.12110作者: Wujiang Xu, Zujie Liang, Kai Mei, Hang Gao, Juntao Tan, Yongfeng Zhang发布日期: 2025-02-17发表会议: NeurIPS 2025分类: context-engineering
摘要虽然 LLM 智能体能够有效使用外部工具来完成复杂的现实任务,但它们需要记忆系统来利用历史经验。当前的记忆系统支持基本的存储和检索,但缺乏精细的记忆组织能力。A-MEM 提出了一种新颖的智能体记忆系统,借鉴 Zettelkasten 方法(卡片盒笔记法),通过动态索引和链接创建互联的知识网络,每条记忆以包含上下文描述、关键词和标签的结构化笔记形式存储。
主要贡献1. 基于 Zettelkasten 的动态记...