面向长期 LLM 代理的偏好感知记忆更新

面向长期 LLM 代理的偏好感知记忆更新 ArXiv ID: 2510.09720作者: Haoran Sun, Zekun Zhang, Shaoning Zeng机构: Hong Kong Polytechnic University发布日期: 2025-10-10 摘要影响基于 LLM 代理推理能力的关键因素之一是其利用长期记忆的能力。虽然最近的进展显著改进了存储和检索组件,但大多数现有方法在记忆更新方面存在不足——缺乏根据不断演变的用户行为和上下文动态优化偏好记忆表示的机制。本文提出 PAMU(Preference-Aware Memory Update),通过整合滑动窗口平均(SW)和指数移动平均(EMA),构建融合的偏好感知表示。在 LoCoMo 数据集上,PAMU 在五个任务场景中准确率提升15-25%。 问题背景长期代理中的记忆挑战123456789101112...

阅读全文

长期运行低代码代理的记忆管理与上下文一致性

长期运行低代码代理的记忆管理与上下文一致性 ArXiv ID: 2509.25250作者: Jiexi Xu机构: University of Toronto, Vector Institute发布日期: 2025-09-27 摘要AI 原生低代码/无代码(LCNC)平台的兴起使得自主代理能够执行复杂的、长时间运行的业务流程。然而,一个根本性挑战依然存在:记忆管理。随着代理长时间运行,它们面临着记忆膨胀和上下文退化问题,导致行为不一致、错误累积和计算成本增加。本文提出分层记忆架构,将记忆分为工作记忆、短期记忆和长期记忆三个层次。实验表明,该方法可以将记忆占用降低70%,同时保持甚至提升任务完成质量。 问题背景长期运行代理的挑战123456789101112131415161718192021低代码代理典型使用场景:场景 1:客户服务对话(持续数周)┌─────────...

阅读全文

增强代理长期记忆的多重记忆系统

增强代理长期记忆的多重记忆系统 ArXiv ID: 2508.15294作者: Gaoke Zhang, Bo Wang, Yunlong Ma, Dongming Zhao, Zifei Yu机构: Shandong University, Alibaba Group发布日期: 2025-08-21 摘要由大型语言模型驱动的代理取得了令人印象深刻的成果,但有效处理交互过程中产生的大量历史数据仍然是一个挑战。现有方法如 MemoryBank 和 A-MEM 存在记忆内容质量差的问题,影响了检索性能和响应质量。本文提出 MMS(Multiple Memory Systems) 架构,灵感来自人类认知科学的多重记忆理论。系统包含三个独立但协同工作的记忆子系统:程序性记忆、语义记忆和情节记忆。实验表明,MMS 相比单一记忆系统在响应相关性上提升35%,事实准确性提升40%。 问题背景...

阅读全文

GraphRAG-R1: 图检索增强生成与过程约束强化学习

GraphRAG-R1: 图检索增强生成与过程约束强化学习 ArXiv ID: 2507.23581作者: Chuanyue Yu, Kuo Zhao, Yuhan Li 等机构: Tsinghua University发表: The Web Conference 2026 (WWW’26)发布日期: 2025-07-31 摘要现有的 GraphRAG 方法在处理复杂多跳推理任务时存在局限性。GraphRAG-R1 提出了一种自适应 GraphRAG 框架,通过过程约束的基于结果的强化学习来训练 LLM,增强其多跳推理能力。框架设计了两个关键奖励机制:渐进式检索衰减 (PRA) 解决浅层检索问题,成本感知 F1(CAF) 平衡性能与开销。在域内和域外数据集上均超越 SOTA 方法。 问题背景传统 GraphRAG 的局限12345678910111213141516171819...

阅读全文

© 2026 Generative AI Discovery All Rights Reserved.
Theme by hiero