面向长期 LLM 代理的偏好感知记忆更新

面向长期 LLM 代理的偏好感知记忆更新 ArXiv ID: 2510.09720作者: Haoran Sun, Zekun Zhang, Shaoning Zeng机构: Hong Kong Polytechnic University发布日期: 2025-10-10 摘要影响基于 LLM 代理推理能力的关键因素之一是其利用长期记忆的能力。虽然最近的进展显著改进了存储和检索组件,但大多数现有方法在记忆更新方面存在不足——缺乏根据不断演变的用户行为和上下文动态优化偏好记忆表示的机制。本文提出 PAMU(Preference-Aware Memory Update),通过整合滑动窗口平均(SW)和指数移动平均(EMA),构建融合的偏好感知表示。在 LoCoMo 数据集上,PAMU 在五个任务场景中准确率提升15-25%。 问题背景长期代理中的记忆挑战123456789101112...

阅读全文

长期运行低代码代理的记忆管理与上下文一致性

长期运行低代码代理的记忆管理与上下文一致性 ArXiv ID: 2509.25250作者: Jiexi Xu机构: University of Toronto, Vector Institute发布日期: 2025-09-27 摘要AI 原生低代码/无代码(LCNC)平台的兴起使得自主代理能够执行复杂的、长时间运行的业务流程。然而,一个根本性挑战依然存在:记忆管理。随着代理长时间运行,它们面临着记忆膨胀和上下文退化问题,导致行为不一致、错误累积和计算成本增加。本文提出分层记忆架构,将记忆分为工作记忆、短期记忆和长期记忆三个层次。实验表明,该方法可以将记忆占用降低70%,同时保持甚至提升任务完成质量。 问题背景长期运行代理的挑战123456789101112131415161718192021低代码代理典型使用场景:场景 1:客户服务对话(持续数周)┌─────────...

阅读全文

突破记忆墙:长上下文代理 LLM 推理的优化路径

突破记忆墙:长上下文代理 LLM 推理的优化路径 ArXiv ID: 2509.09505作者: Haoran Wu, Can Xiao, Jiayi Nie, Xuan Guo, Binglei Lou, Jeffrey T. H. Wong, Zhiwen Mo, Cheng Zhang, Przemysław Forys, Wayne Luk, Hongxiang Fan, Jianyi Cheng, Timothy M. Jones, Rika Antonova, Robert Mullins, Aaron Zhao机构: Imperial College London, Microsoft, Huawei发布日期: 2025-09-11 摘要LLM 现在构成了各种应用的 AI 代理的骨干。本文深入分析了长上下文代理 LLM 推理面临的记忆墙挑战,并提出了系统化的优化解决...

阅读全文

增强代理长期记忆的多重记忆系统

增强代理长期记忆的多重记忆系统 ArXiv ID: 2508.15294作者: Gaoke Zhang, Bo Wang, Yunlong Ma, Dongming Zhao, Zifei Yu机构: Shandong University, Alibaba Group发布日期: 2025-08-21 摘要由大型语言模型驱动的代理取得了令人印象深刻的成果,但有效处理交互过程中产生的大量历史数据仍然是一个挑战。现有方法如 MemoryBank 和 A-MEM 存在记忆内容质量差的问题,影响了检索性能和响应质量。本文提出 MMS(Multiple Memory Systems) 架构,灵感来自人类认知科学的多重记忆理论。系统包含三个独立但协同工作的记忆子系统:程序性记忆、语义记忆和情节记忆。实验表明,MMS 相比单一记忆系统在响应相关性上提升35%,事实准确性提升40%。 问题背景...

阅读全文

GraphRAG-R1: 图检索增强生成与过程约束强化学习

GraphRAG-R1: 图检索增强生成与过程约束强化学习 ArXiv ID: 2507.23581作者: Chuanyue Yu, Kuo Zhao, Yuhan Li 等机构: Tsinghua University发表: The Web Conference 2026 (WWW’26)发布日期: 2025-07-31 摘要现有的 GraphRAG 方法在处理复杂多跳推理任务时存在局限性。GraphRAG-R1 提出了一种自适应 GraphRAG 框架,通过过程约束的基于结果的强化学习来训练 LLM,增强其多跳推理能力。框架设计了两个关键奖励机制:渐进式检索衰减 (PRA) 解决浅层检索问题,成本感知 F1(CAF) 平衡性能与开销。在域内和域外数据集上均超越 SOTA 方法。 问题背景传统 GraphRAG 的局限12345678910111213141516171819...

阅读全文

受人类启发的情节记忆:实现无限上下文 LLM

受人类启发的情节记忆:实现无限上下文 LLM ArXiv ID: 2407.09450作者: Zafeirios Fountas, Martin A Benfeghoul, Adnan Oomerjee, Fenia Christopoulou, Gerasimos Lampouras, Haitham Bou-Ammar, Jun Wang机构: Huawei Noah’s Ark Lab, University College London发布日期: 2024-07-12 摘要大型语言模型(LLM)在处理长上下文时面临严重困难,限制了它们在长序列上保持连贯性和准确性的能力。相比之下,人类大脑擅长在跨越一生的广阔时间尺度上组织和检索情节性体验。本文提出 EM-LLM,一种将人类情节记忆和事件认知的关键方面集成到 LLM 中的新方法,无需微调即可处理百万 token 级别的输入。...

阅读全文

长上下文 LLM 在长上下文学习中的挑战

长上下文 LLM 在长上下文学习中的挑战 ArXiv ID: 2404.02060作者: Tianle Li, Ge Zhang, Quy Duc Do, Xiang Yue, Wenhu Chen机构: University of Waterloo, Tencent AI Lab发布日期: 2024-04-02基准: LongICLBench 摘要大型语言模型在处理长序列方面取得了重大进展,一些模型甚至声称能够处理数百万 token。然而,它们的性能评估主要局限于困惑度和合成任务等指标。本文提出 LongICLBench,一个全面的基准测试套件,专门评估长上下文 LLM 在实际长上下文学习任务中的表现。评估结果揭示了令人惊讶的发现:即使是声称支持超长上下文的模型,在实际长上下文学习任务中也表现不佳。性能随上下文长度增加显著下降,尤其是当有用信息分散在长文本中时。 问题背景长上...

阅读全文

© 2026 Generative AI Discovery All Rights Reserved.
Theme by hiero