跳转至

type: concept tags: [agent, memory, procedural-memory, 持续学习, 过程性记忆, 记忆管理] related: [[amc-adaptive-memory-crystallization]], [[memory-as-metabolism-companion-ks]], [[agent-persistent-identity]], [[exectune-guide-core-policy]], [[mga-memory-gui-agent]] sources: - url: https://arxiv.org/abs/2508.06433 title: "Memp: Exploring Agent Procedural Memory" date: 2025-08-08 reliability: high created: 2026-04-16 updated: 2026-04-16


Memp:Agent 过程性记忆探索

一个任务无关的过程性记忆框架(arXiv:2508.06433),将 Agent 历史轨迹提炼为可学习、可更新、终身的过程性记忆,实现准确率持续提升和步骤数持续减少。

核心问题

LLM Agent 执行复杂长程任务需要数十步操作和长时间运行。网络故障、UI 变化、数据模式变更等不可预测的外部事件可能破坏整个流程。当前 Agent 每次都从零开始,浪费了之前的成功经验。

虽然 LLM Agent 能够编写短行动计划或调用外部工具,但其过程性知识要么是手工设计的脆弱提示模板,要么隐含纠缠在难以更新的模型参数中。现有记忆增强框架(LangGraph、AutoGPT、Memory Bank、Soar)提供了粗粒度抽象(缓冲区、规则块、生产系统),但过程性记忆生命周期操作的优化——技能如何构建、索引、修补和最终剪枝——基本未被研究。

方法/架构

Memp 将过程性记忆作为一等优化对象,核心探索在于记忆构建(Build)、检索(Retrieval)、更新(Update)三大策略的不同组合如何影响整体性能。

记忆构建

从历史成功轨迹中提炼过程性记忆: - 细粒度指令:逐步骤的详细操作指南 - 高层脚本:抽象化的任务模式和推理模式

检索策略

设计了多种关键构建方法用于向量匹配检索:

策略 方法 效果
Random Sample 不使用关键向量,随机抽取记忆 基线
Query 使用查询描述作为关键,利用语义相似度检索 显著优于随机
AveFact 用大模型提取关键词,计算匹配关键词的平均相似度 最佳检索效果

实验表明 Query 和 AveFact 方法相比随机采样显著提升性能: - Query 方法通过捕获语义上下文实现更精确匹配 - AveFact 方法通过提取关键特征并平均其相似度,有效聚焦核心任务元素

更新策略

这是 Memp 最核心的创新——四种动态记忆更新机制:

  1. Vanilla Memory Update:每 t 个任务后,所有轨迹整合为过程性记忆直接追加到记忆库
  2. Validation:只保留成功完成的任务轨迹转化为过程性记忆
  3. Adjustment(反思更新):当检索到的过程性记忆导致执行失败时,将错误轨迹与原始记忆结合并原地修正

实验结果

在 TravelPlanner 和 ALFWorld 两个领域上评估:

TravelPlanner 检索策略对比(GPT-4o):

策略 CS ↑ HC ↑ Steps ↓
No Memory 71.93 12.88 17.84
Random Sample 74.59 6.72 15.12
Key=Query 73.38 8.95 15.44
Key=AveFact 76.02 8.25 14.64

跨模型迁移:GPT-4o 构建的过程性记忆迁移到更弱的 Qwen2.5-14B-Instruct 时,仍带来显著性能提升——说明过程性记忆的价值不依赖于特定模型。

更新策略对比: - 随着迭代任务组数增加,所有策略都带来性能提升 - 反思更新(Adjustment)效果最佳:在最后一组任务中,超越第二名 +0.7 分,减少 14 步 - 反思机制的价值在于嵌入了纠错过程

关键洞察

  1. 过程性记忆的可迁移性:更强模型构建的过程性记忆对更弱模型仍然有效。这对端侧部署至关重要——可以用云端大模型构建记忆,迁移到端侧小模型使用

  2. 反思驱动的更新优于简单追加:不只是"积累更多经验",而是"从错误中学习并修正"。这种机制天然适合端侧 Agent 的自我改进

  3. 记忆随任务增长而进化:准确率持续提升、步骤数持续减少——记忆不是静态知识库,而是活的技能仓库

  4. 检索精度是关键瓶颈:随机采样的效果远逊于语义检索,说明"找到对的记忆"比"拥有更多记忆"更重要

为什么重要

对手机端 AIOS 生态的意义:

  1. 端侧 Agent 的技能积累:手机 Agent(语音助手、相机优化、自动化工作流)需要从用户使用历史中学习技能模式,Memp 提供了系统化的框架

  2. 云端-端侧协同记忆:过程性记忆的可迁移性意味着可以用云端大模型构建记忆,部署到端侧小模型——降低端侧计算需求的同时保持高质量

  3. 轻量级更新机制:反思更新只需在失败时修正特定记忆条目,不需要全量重训练——适合端侧的计算预算

  4. 与 GUI Agent 的结合:Memp 的轨迹提炼可直接应用于 GUI Agent(如 [[secagent-mobile-gui]]),将成功的操作序列提炼为可复用的过程性记忆

  5. 记忆效率与存储优化:检索策略决定了需要加载多少记忆到上下文——对端侧有限的上下文窗口至关重要

关联

  • [[amc-adaptive-memory-crystallization]] — AMC 在 RL 中管理经验记忆的渐进式整合,Memp 在 LLM Agent 中管理过程性记忆的构建/更新
  • [[memory-as-metabolism-companion-ks]] — 提供了记忆治理的规范框架,Memp 的更新策略可嵌入该治理框架
  • [[agent-persistent-identity]] — Agent 身份的连续性依赖于过程性记忆的持久化
  • [[exectune-guide-core-policy]] — ExecTune 用 Guide Model 引导策略,Memp 用过程性记忆引导执行
  • [[mga-memory-gui-agent]] — MGA 从 GUI 交互轨迹构建记忆,与 Memp 的轨迹提炼方法互补