type: concept tags: [agent, memory, procedural-memory, 持续学习, 过程性记忆, 记忆管理] related: [[amc-adaptive-memory-crystallization]], [[memory-as-metabolism-companion-ks]], [[agent-persistent-identity]], [[exectune-guide-core-policy]], [[mga-memory-gui-agent]] sources: - url: https://arxiv.org/abs/2508.06433 title: "Memp: Exploring Agent Procedural Memory" date: 2025-08-08 reliability: high created: 2026-04-16 updated: 2026-04-16
Memp:Agent 过程性记忆探索¶
一个任务无关的过程性记忆框架(arXiv:2508.06433),将 Agent 历史轨迹提炼为可学习、可更新、终身的过程性记忆,实现准确率持续提升和步骤数持续减少。
核心问题¶
LLM Agent 执行复杂长程任务需要数十步操作和长时间运行。网络故障、UI 变化、数据模式变更等不可预测的外部事件可能破坏整个流程。当前 Agent 每次都从零开始,浪费了之前的成功经验。
虽然 LLM Agent 能够编写短行动计划或调用外部工具,但其过程性知识要么是手工设计的脆弱提示模板,要么隐含纠缠在难以更新的模型参数中。现有记忆增强框架(LangGraph、AutoGPT、Memory Bank、Soar)提供了粗粒度抽象(缓冲区、规则块、生产系统),但过程性记忆生命周期操作的优化——技能如何构建、索引、修补和最终剪枝——基本未被研究。
方法/架构¶
Memp 将过程性记忆作为一等优化对象,核心探索在于记忆构建(Build)、检索(Retrieval)、更新(Update)三大策略的不同组合如何影响整体性能。
记忆构建¶
从历史成功轨迹中提炼过程性记忆: - 细粒度指令:逐步骤的详细操作指南 - 高层脚本:抽象化的任务模式和推理模式
检索策略¶
设计了多种关键构建方法用于向量匹配检索:
| 策略 | 方法 | 效果 |
|---|---|---|
| Random Sample | 不使用关键向量,随机抽取记忆 | 基线 |
| Query | 使用查询描述作为关键,利用语义相似度检索 | 显著优于随机 |
| AveFact | 用大模型提取关键词,计算匹配关键词的平均相似度 | 最佳检索效果 |
实验表明 Query 和 AveFact 方法相比随机采样显著提升性能: - Query 方法通过捕获语义上下文实现更精确匹配 - AveFact 方法通过提取关键特征并平均其相似度,有效聚焦核心任务元素
更新策略¶
这是 Memp 最核心的创新——四种动态记忆更新机制:
- Vanilla Memory Update:每 t 个任务后,所有轨迹整合为过程性记忆直接追加到记忆库
- Validation:只保留成功完成的任务轨迹转化为过程性记忆
- Adjustment(反思更新):当检索到的过程性记忆导致执行失败时,将错误轨迹与原始记忆结合并原地修正
实验结果¶
在 TravelPlanner 和 ALFWorld 两个领域上评估:
TravelPlanner 检索策略对比(GPT-4o):
| 策略 | CS ↑ | HC ↑ | Steps ↓ |
|---|---|---|---|
| No Memory | 71.93 | 12.88 | 17.84 |
| Random Sample | 74.59 | 6.72 | 15.12 |
| Key=Query | 73.38 | 8.95 | 15.44 |
| Key=AveFact | 76.02 | 8.25 | 14.64 |
跨模型迁移:GPT-4o 构建的过程性记忆迁移到更弱的 Qwen2.5-14B-Instruct 时,仍带来显著性能提升——说明过程性记忆的价值不依赖于特定模型。
更新策略对比: - 随着迭代任务组数增加,所有策略都带来性能提升 - 反思更新(Adjustment)效果最佳:在最后一组任务中,超越第二名 +0.7 分,减少 14 步 - 反思机制的价值在于嵌入了纠错过程
关键洞察¶
-
过程性记忆的可迁移性:更强模型构建的过程性记忆对更弱模型仍然有效。这对端侧部署至关重要——可以用云端大模型构建记忆,迁移到端侧小模型使用
-
反思驱动的更新优于简单追加:不只是"积累更多经验",而是"从错误中学习并修正"。这种机制天然适合端侧 Agent 的自我改进
-
记忆随任务增长而进化:准确率持续提升、步骤数持续减少——记忆不是静态知识库,而是活的技能仓库
-
检索精度是关键瓶颈:随机采样的效果远逊于语义检索,说明"找到对的记忆"比"拥有更多记忆"更重要
为什么重要¶
对手机端 AIOS 生态的意义:
-
端侧 Agent 的技能积累:手机 Agent(语音助手、相机优化、自动化工作流)需要从用户使用历史中学习技能模式,Memp 提供了系统化的框架
-
云端-端侧协同记忆:过程性记忆的可迁移性意味着可以用云端大模型构建记忆,部署到端侧小模型——降低端侧计算需求的同时保持高质量
-
轻量级更新机制:反思更新只需在失败时修正特定记忆条目,不需要全量重训练——适合端侧的计算预算
-
与 GUI Agent 的结合:Memp 的轨迹提炼可直接应用于 GUI Agent(如 [[secagent-mobile-gui]]),将成功的操作序列提炼为可复用的过程性记忆
-
记忆效率与存储优化:检索策略决定了需要加载多少记忆到上下文——对端侧有限的上下文窗口至关重要
关联¶
- [[amc-adaptive-memory-crystallization]] — AMC 在 RL 中管理经验记忆的渐进式整合,Memp 在 LLM Agent 中管理过程性记忆的构建/更新
- [[memory-as-metabolism-companion-ks]] — 提供了记忆治理的规范框架,Memp 的更新策略可嵌入该治理框架
- [[agent-persistent-identity]] — Agent 身份的连续性依赖于过程性记忆的持久化
- [[exectune-guide-core-policy]] — ExecTune 用 Guide Model 引导策略,Memp 用过程性记忆引导执行
- [[mga-memory-gui-agent]] — MGA 从 GUI 交互轨迹构建记忆,与 Memp 的轨迹提炼方法互补