增强代理长期记忆的多重记忆系统

增强代理长期记忆的多重记忆系统 ArXiv ID: 2508.15294作者: Gaoke Zhang, Bo Wang, Yunlong Ma, Dongming Zhao, Zifei Yu机构: Shandong University, Alibaba Group发布日期: 2025-08-21 摘要由大型语言模型驱动的代理取得了令人印象深刻的成果,但有效处理交互过程中产生的大量历史数据仍然是一个挑战。现有方法如 MemoryBank 和 A-MEM 存在记忆内容质量差的问题,影响了检索性能和响应质量。本文提出 MMS(Multiple Memory Systems) 架构,灵感来自人类认知科学的多重记忆理论。系统包含三个独立但协同工作的记忆子系统:程序性记忆、语义记忆和情节记忆。实验表明,MMS 相比单一记忆系统在响应相关性上提升35%,事实准确性提升40%。 问题背景...

阅读全文

受人类启发的情节记忆:实现无限上下文 LLM

受人类启发的情节记忆:实现无限上下文 LLM ArXiv ID: 2407.09450作者: Zafeirios Fountas, Martin A Benfeghoul, Adnan Oomerjee, Fenia Christopoulou, Gerasimos Lampouras, Haitham Bou-Ammar, Jun Wang机构: Huawei Noah’s Ark Lab, University College London发布日期: 2024-07-12 摘要大型语言模型(LLM)在处理长上下文时面临严重困难,限制了它们在长序列上保持连贯性和准确性的能力。相比之下,人类大脑擅长在跨越一生的广阔时间尺度上组织和检索情节性体验。本文提出 EM-LLM,一种将人类情节记忆和事件认知的关键方面集成到 LLM 中的新方法,无需微调即可处理百万 token 级别的输入。...

阅读全文

© 2026 Generative AI Discovery All Rights Reserved.
Theme by hiero