近年来,大语言模型智能体正从静态模型向具备自主推理与工具调用能力的动态系统演进,而程序性记忆(procedural memory)作为内化“如何做”知识的关键机制,有望显著减少冗余试错、提升任务泛化能力。然而,现有方法多采用“被动累积”范式,将记忆视为静态、仅追加的档案库,难以支持动态推理与持续优化。
为弥合静态存储与动态认知之间的鸿沟,上海交通大学联合阿里通义的研究者们提出 ReMe(Remember Me, Refine Me)——一个面向经验驱动的智能体进化框架,通过多维度蒸馏、上下文自适应重用、基于效用的精炼三个核心机制重构记忆生命周期。在 BFCL-V3 与 AppWorld 基准上的大量实验表明,ReMe 显著优于现有方法,刷新了智能体记忆系统SOTA。尤为关键的是,实验揭示了“记忆扩展效应”:配备 ReMe 的 Qwen3-8B 模型在 Avg@4 和 Pass@4 指标上分别超越无记忆的更大模型 Qwen3-14B 达 8.83% 与 7.29%,证明高质量的自进化记忆可作为一种计算高效、替代模型规模增长的终身学习路径。
01
方法
图2 ReMe框架图
如图2所示,ReMe 框架包含三个相互关联的阶段:经验获取、经验重用和经验精炼。在经验获取阶段,总结模块分析智能体生成的轨迹(包括成功与失败的轨迹),并将其中可操作的知识提炼为结构化的经验池。在经验重用阶段,面对新任务时,检索模块从经验池中召回相关经验,这些经验随后被融入智能体的上下文,以增强其推理能力和任务求解表现。最后,在经验精炼阶段,系统持续优化经验池,通过纳入新的可靠经验并剔除过时经验,确保经验库在长期使用中保持相关性,并能适应不断变化的任务需求。
(1)经验获取
首先,将智能体经验ε定义为代理执行见解的结构化、可泛化的表示。每个单独的经验E ∈ε 表示为E = ⟨ ω, e, κ, c, τ ⟩,其中,ω指明指明何时使用该经验,e 表示核心经验内容κ = {κ1,κ2,...,κm}是用于分类的相关关键词集合,c∈[0,1]量化置信度分数,τ 表示所使用的工具。
ReMe 框架通过系统化流程构建高质量的初始经验池:首先,执行智能体 LLMexecute 在多个训练任务上采样多条执行轨迹,以覆盖多样化的成功与失败路径;随后,总结模型 LLMsumm 对这些轨迹进行多维蒸馏,包括识别成功策略、分析失败原因以及对比成功与失败的关键差异,从而提炼出结构化、可复用的经验;接着,通过 LLM-as-a-Judge 机制验证经验的准确性、可操作性与价值,并利用相似度去重去除冗余内容,确保经验池的紧凑性与多样性;最终,所有有效经验以其使用场景的嵌入向量为索引,存入向量数据库。这一流程为后续高效检索和策略性推理提供了坚实基础。
(2)经验重用
在经验重用阶段,ReMe 通过检索、重排序与重写三步机制,将历史经验有效适配到当前任务:首先,利用高性能嵌入模型对任务查询与经验池进行相似性匹配,召回 top-K 最相关的经验;其次,可选地引入上下文感知的重排序模块(LLMrerank),结合当前任务的具体约束和目标,精细化评估经验的相关性;最后,通过重写模块将多条原始经验整合为一条连贯、聚焦且任务导向的指导文本,提升其直接可用性。这一流程不仅增强了经验的即时效用,还使智能体能够在复用既有知识的同时保持灵活、上下文敏感的推理能力,实现利用与探索的有机平衡。
(3)经验精炼
ReMe 框架通过经验精炼机制来实现经验池的动态优化,在添加新经验采用选择性添加策略:仅将成功完成任务的轨迹进行蒸馏,提炼出结构化、可复用的经验并存入经验池。尽管在初始构建阶段可通过多条失败轨迹的联合分析提取有价值的信息,但在实时任务执行中,单次失败轨迹往往缺乏足够的上下文支持准确归因,容易生成误导性经验。
此外,采用失败感知反思机制:当任务失败时,由 LLMsumm 分析失败原因并生成改进建议,LLMexecute 基于建议重新尝试,仅在新尝试成功时将所得洞见存入记忆,并限制最多进行 3 轮自我反思以防陷入无效循环。
ReMe持续记录现有体验的状态,包括总调用次数f和历史效用u,每次其调用有助于成功完成任务时,效用就会增加1。当经验 E ∈ ε 频繁被调用但未能提高新任务性能时,它将被删除:
通过整合上述组件,ReMe 构建了一个能够自我进化的经验池,既能保留高质量的经验以塑造智能体的长期行为,又能灵活适应新的任务需求。
02
评估
表1 ReMe与基线模型在BFCL‑V3、AppWorld基准测试上的性能比较
表1展示了ReMe在Qwen3系列模型上于BFCL-V3和AppWorld基准测试中的主要结果。总体而言,ReMe在三种不同模型规模下均取得了最高的平均任务成功率,始终优于无记忆基线方法以及其他具有竞争力的基线记忆系统。具体而言,在Qwen3-8B模型上,ReMe相较于无记忆基线方法,在Pass@4指标上平均提升了7.29%,在Avg@4指标上平均提升了8.83%。Pass@4指标的提升表明,检索到的经验能够有效拓宽探索空间,从而提高在多次尝试中至少找到一个成功解决方案的概率。
ReMe 动态版本在所有模型规模和基准测试中始终优于其静态版本,凸显了在任务执行过程中进行自适应经验精炼的重要性。此外,与基线方法相比,ReMe(动态)性能有突出的稳定性。例如,LangMem在BFCL-V3上表现良好,但在AppWorld上的性能显著下降。相比之下,ReMe在BFCL-V3和AppWorld两个基准测试中均展现出卓越的一致性。ReMe 倾向于降低多次运行之间性能的标准差,尤其是在较大模型上更为明显。这表明 ReMe 不仅提升了整体性能,还增强了模型输出的鲁棒性与可靠性。
值得注意的是,配备ReMe的小模型可以与甚至超越无记忆的大模型。例如,Qwen3‑8B+ReMe(动态)的平均Pass@4分数超过了朴素Qwen3‑14B模型。类似地,Qwen3‑14B+ReMe(动态)超过了无记忆Qwen3‑32B的整体性能。这表明有效的记忆机制可以显著缩小不同模型规模之间的性能差距。
图5 使用与未使用 ReMe 时失败任务的统计情况
研究者对 Qwen3-8B 模型在 BFCL-V3 基准上使用与未使用 ReMe 时的错误模式进行了分析。图5(a)所示,失败案例总数从 62 个减少到 47 个。ReMe 修正了 17 个基线独有的错误,仅引入了 2 个新错误。此外,进行人工审查并对每类失败案例进行归类,以考察 ReMe 对不同错误类型的影响,如图5(b)所示。推理错误显著减少(从 22 降至 14),表明ReMe能有效利用过往经验,增强其多步推理能力,从而减少早期错误的传播。动作遗漏错误也出现了中等但具有实际意义的下降,这有助于智能体识别多轮任务中缺失的操作步骤,尤其是在需要顺序工具调用或状态追踪的任务中。
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
如果你也想通过学大模型技术去帮助自己升职和加薪,可以扫描下方链接👇👇
为什么我要说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
![]()
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓