本文由上海AI Lab等9所高校联合发布,探讨高效智能体(Agents)的三大核心优化方向:记忆管理(工作记忆、外部记忆与多智能体协同)、工具学习(工具选择、调用与集成推理)以及规划策略(单智能体与多智能体协作)。通过优化这些模块,智能体可在最大化任务成功率的同时最小化资源消耗,解决token累积导致的推理成本高昂和响应缓慢问题,为2026年Agentic AI发展提供重要技术路线图。
今天分享,上海AI Lab & 复旦&中科院&上交大等9所高校联合发表了《迈向高效智能体(Agents):记忆、工具学习与规划综述》

高效智能体不是更小的模型,而是在记忆、工具使用和规划模块上优化,以最大化任务成功率同时最小化资源消耗(包括token使用、推理延迟和计算成本)的智能体系统。
2026,做Agentic AI,绕不开这两篇开年综述

高效智能体研究的演进轨迹(2023-2025)。蓝色:记忆;绿色:工具学习;紫色:规划;橙色:评测基准。
智能体的效率危机

这个input-solution循环导致token的复合累积——第n步的输出成为第n+1步的输入成本,产生高昂的推理成本和缓慢的响应时间。

提升效率的三大战略方向:分享两篇Claude Skills最新论文,有3个核心结论
- 高效记忆
- 高效工具学习
- 高效规划
图2:记忆生命周期——构建、管理、访问的完整流程

记忆模块架构图
表1:高效记忆机制概览

3.1 工作记忆(Working Memory)
文本型工作记忆直接在prompt中维护紧凑表示:
- COMEDY:使用LLM提取会话特定记忆,压缩为关键事件、用户画像和关系变化的紧凑表示
- MemAgent/MEM1:顺序处理长输入,每一步重写更新紧凑记忆状态
- AgentFold:主动将交互历史折叠为多尺度摘要+最新完整轮次
隐式型工作记忆以连续信号形式存储:
- Activation Beacon:将上下文分块,通过渐进压缩将层-wise KV激活蒸馏到信标中
- MemoryLLM:维护固定大小的记忆token池,通过自更新机制复用隐式知识
- Titans:在测试时更新神经记忆模块,仅在高预测误差时写入
3.2 外部记忆(External Memory)
项目型记忆:
- MemoryBank:基于艾宾浩斯遗忘曲线,随时间衰减记忆同时强化重要记忆
- Memory-R1/Mem0:从对话中提取并总结为候选记忆,支持CRUD操作
- A-MEM:将交互转换为原子笔记,带上下文描述、关键词和标签
图结构记忆:
- GraphReader:将长文本分块,压缩为关键元素和原子事实,构建捕获长程依赖的图
- AriGraph:统一语义-情景记忆图,语义三元组更新语义图,情景节点链接两者
- Zep:构建时序感知知识图谱,提取/对齐实体关系,存储带有效期的事实边
层次化记忆:
- MemGPT:OS风格虚拟内存分页,将提示分区为系统指令、可写工作上下文和FIFO消息缓冲区
- MemoryOS:三层存储(短期对话页、中期主题段、长期个人画像)
- LightMem:感知-STM-LTM流水线,预压缩输入,在线软更新+离线睡眠时整合
3.4 多智能体记忆
共享记忆 集中可复用信息,减少冗余 MS、G-Memory、RCR-Router、MIRIX
本地记忆 每个智能体独立存储,轻量低噪 Intrinsic Memory Agents、AgentNet、DAMCS
混合记忆 结合共享和本地,需协调路由 SRMT、Collaborative Memory、LEGOMem
表2:高效工具学习方法总结(完整表格见论文第19页)

工具学习分类表格

4.1 工具选择(Tool Selection)
三大范式:
外部检索器 独立模型嵌入查询和工具描述,计算相似度 ProTIP、AnyTool、Toolshed 工具池动态变化
多标签分类 固定工具集视为分类任务 TinyAgent、Tool2Vec 工具集相对固定
词汇检索 工具嵌入为特殊token,作为下一个token预测 ToolkenGPT、Toolken+、ToolGen 超大规模工具库
效率洞察:词汇方法(Toolken)效率最高但泛化性受限,外部检索器即插即用但计算开销大,多标签分类需微调但适合固定场景。
4.2 工具调用(Tool Calling)
原位参数填充 直接在响应生成中填充工具参数 Toolformer、CoA
并行工具调用 识别可并行执行的工具调用 LLMCompiler、LLM-Tool Compiler、CATP-LLM
成本感知调用 将成本作为奖励/约束优化 BTP、OTC-PO、ToolOrchestra
测试时扩展 A*搜索等策略剪枝错误分支 ToolChain*
后训练优化 RL训练最小化冗余调用 ToolRL、ReTool、PORTool
关键发现:并行调用可将顺序延迟降至接近单步,但需准确识别任务依赖;成本感知RL方法在保持准确率的同时显著减少调用次数。
4.3 工具集成推理(Tool-Integrated Reasoning)
核心挑战:在复杂问题解决中平衡准确性、计算效率和数据效率。
选择性调用 TableMind 迭代计划-行动-反思循环,两阶段训练(SFT+RL) SMART 构建数据集标注每次调用的必要性,微调模型决策
成本感知策略优化 RAPO 排名感知优势加权,引导模型走向一致答案 ARTIST 结果导向RL,无步骤级监督学习最优工具使用策略 AutoTIR 特定奖励惩罚不必要工具使用 SWiRL 并行轨迹生成时过滤冗余动作
前沿趋势:从”最大化工具使用求准确”转向”RL训练最小化冗余交互”的帕累托优化。

高效规划总览
5.1 单智能体规划效率
推理时策略:

基于学习的进化:
策略优化 QLASS Q值critic指导搜索 ETO DPO试错偏好学习 RLTR/Planner-R1 过程级奖励训练 Planning w/o Search 离线目标条件critic
记忆与技能获取 VOYAGER 构建可复用技能库 GAP 图表示识别可并行动作
5.2 多智能体协作效率
核心挑战:MAS增强推理但常产生O(N²)通信成本。

表3:高效规划方法总结(完整表格见论文第25页)

规划方法分类表格
大模型全套学习资料已整理打包,有需要的小伙伴可以,免费领取【保证100%免费】
Agent 智能体
发布者:Ai探索者,转载请注明出处:https://javaforall.net/236467.html原文链接:https://javaforall.net
