Reference Article
[1] A. Author et al., “Advances and Challenges in Foundation Agents,” arXiv:2504.01990 [cs.AI], 2024. [Online]. Available: https://arxiv.org/abs/2504.01990
学习空间
形式定义
形式化的,我们定义Agents的内部学习空间为:
其中,
分别对应记忆能力,理解世界的能力,理解目的的能力,理解情绪的能力,理解“做什么是对的”的能力。
学习方法
- 全面心智状态学习。即完整的,通过改变模型的参数,提升Agents对于各个方面的理解。需要大量高质量的数据。具体方法包括,SFT,LoRA,以及基于RL的一些方法比如GRPO,DPO,RLHF等等。
- 部分心智状态学习。不改变模型参数的情况下,通过调整当前的五种M,来快速的适应和学习。具体方法包括:
- 学习世界模型 (
) 和奖励 ( ): - Reflexion:当代理犯错后,它会进行“反思”,生成一段文字总结失败原因和改进策略。这段文字就成了一种内部的、临时的指导信号(类似
),并更新了它对任务的理解( )。
- ARMAP /
AutoMC:通过观察过去的行动轨迹或主动探索,自己总结出一套“什么行为是好的”的奖励规则
($M^{rew})。
- ActRe:通过分析自己的行动,深化对当前世界规则的理解
(
)。
- Reflexion:当代理犯错后,它会进行“反思”,生成一段文字总结失败原因和改进策略。这段文字就成了一种内部的、临时的指导信号(类似
- 学习记忆 (
): - Generative
Agents:通过不断记录和“回想”过去的经历,来形成更深刻的记忆,并指导未来的社交行为。
- Voyager:在《我的世界》里,把成功的操作(如“合成木镐”)存入一个“技能库”,这个库就是它动态积累的程序性记忆。
- Generative
Agents:通过不断记录和“回想”过去的经历,来形成更深刻的记忆,并指导未来的社交行为。
- 学习世界模型 (
学习目标
输入(感知)层 (Input/Perception Level)
核心目标:学会“看清”和“解析”
这个层次的目标是将来自环境的原始、杂乱的数据,转化为结构化的、有意义的信息。它是连接 AI 与世界的第一道关口。主要途径与方法:
多模态感知学习 (Multimodal Learning): 融合视觉、语言、听觉、触觉等多种感官输入,形成统一的理解。
检索增强感知 (Retrieval-Augmented Perception): 通过连接外部知识库,来增强对当前所见事物的理解深度。
主动信息获取 (Active Information Acquisition): 智能体自主学习何时以及如何去外部知识库查找信息,以辅助自己感知。
经典框架与基本思路:
CLIP
: 其开创性思路是将图像和文本编码到同一个“共享空间”中,让模型能够理解“这张图”和“这段话”在语义上是否匹配。LLaVA
: 在 CLIP 的基础上,它通过增加一个“投影器”模块,让语言模型能更直接地理解和“谈论”图像的具体内容,实现了视觉对话。CogVLM
: 致力于更深度的视觉-语言融合,通过修改模型内部结构,使其能对图像进行更复杂的逻辑推理。Owen-Audio
: 其思路是构建一个统一的模型,使其能够处理并理解所有类型的声学信息,无论是人类语音、音乐还是环境中的各种声音。RAG
(检索增强生成): 核心思路是在模型生成答案之前,先从一个庞大的知识库中检索出最相关的几段信息,并将这些信息一并提供给模型,使其能生成内容更丰富、事实更准确的答案。Search-o1
/R1-Searcher
: 它们是对 RAG 的进化,核心思路是让“检索”这个动作变得主动和智能。模型不再是被动接收检索结果,而是自己学习在推理过程中判断何时需要去查找资料。
处理(推理)层 (Processing/Reasoning Level)
核心目标:学会“思考”和“规划”
这个层次的目标是基于已感知到的信息,进行逻辑推断、制定行动策略、解决具体问题。它是智能体展现“智力”的核心环节。
主要途径与方法:
高质量数据驱动 (Learning from High-Quality Data): 通过监督式微调(SFT)模仿“专家”的推理过程(即推理链)。
自举与自我提升 (Bootstrapping & Self-improvement): 模型自己生成解题尝试,并从成功的尝试中筛选数据来迭代地训练自己。
奖励模型引导 (Reward Model-Guided Learning): 引入一个“裁判”模型(PRM),为推理的每一步提供精细的质量反馈。
强化学习直接优化 (Direct RL Optimization): 通过强化学习(RL)直接优化模型的推理策略,而不仅仅是筛选数据。
强化学习与工具使用 (RL with Tool Use): 训练模型在推理过程中,自主、无缝地调用外部工具(如计算器、API)。
经典框架与基本思路:
LIMO
: 它的核心洞察是,教 AI 推理的关键在于教它推理的“结构”或“套路”,而非具体知识。只要提供少量高质量的“解题模板”,就能激活模型已有的知识。STaR
(自教推理器): 基本思路是一个“自我迭代、自我教育”的循环。模型先尝试解决问题,如果最终答案正确,就把中间成功的推理过程当作“正面教材”来重新学习一遍,从而强化自己。ReST
(强化自训练): 它的思路是“广撒网、精捕捞”。针对一个问题,让模型生成大量不同的解法,然后用一个过滤器筛选出其中好的解法,汇集成一个高质量的数据集,再用来训练自己。(和GRPO真像啊)PRM
(策略奖励模型): 它的作用像一个专业的“裁判”。在模型进行多步推理时,PRM 不仅能判断最终对错,还能给过程中的每一步打分,提供更精细的指导。DeepSeek Rl
/Kimi-K-1.5
: 它们是将现代强化学习算法(如PPO)成功应用于大型语言模型的典范,通过直接优化策略,在复杂的任务(如编程)上取得了显著效果。Qwen-QwQ-32B
/RAGEN
: 它们代表了最新的方向,即利用强化学习来教模型如何以及何时使用外部工具。这使得模型的推理不再是“闭门造车”,而是可以与外部世界互动的“开放式思考”。
理解(认知)层 (Comprehension/World Understanding Level)
核心目标:学会“领悟”和“内化”
这个层次的目标是通过长期经验积累,形成对世界运行规律的、深刻且可预测的内部模型(世界模型),理解因果关系和动态变化。
主要途径与方法:
经验学习 (Experiential Learning): 通过与环境的直接互动,主动地收集、处理并积累经验。
系统化经验管理 (Systematic Experience Management): 通过复杂的框架来管理和反思经验,如记忆回放、成败复盘等。
基于互动的奖励优化 (Interaction-based Reward Optimization): 通过与人类或环境的持续互动,学习并优化自身的价值判断(奖励函数)。
世界模型即模拟器 (World Model as a Simulator): 利用已形成的世界理解,在行动前进行“思想实验”,预测未来,从而做出更优的规划。
经典框架与基本思路:
Voyager
/DESP
: 它们在《我的世界》这个复杂的虚拟环境中,核心思路是让智能体不仅仅是随机探索,而是主动地将成功的经验(例如“如何挖到铁矿”)总结成可复用的“技能”,并不断扩充自己的技能库。Generative Agents
: 其著名思路是模拟了一个虚拟小镇。每个智能体都拥有一个复杂的“记忆流+反思”机制,能够记录一天中所有的观察和对话,并在晚上进行“复盘”和“总结”,形成更深刻的记忆和规划,从而产生极其逼真的长期行为。Reflexion
/Expel
: 它们的核心思路是形式化了“从失败中学习”的过程。当一次尝试失败后,智能体会生成一段自我反思的文本(例如“我上次失败是因为…下次我应该…”),并将这段反思作为指导信息用于下一次尝试。Text2Reward
: 它的思路是,人类不需要编写复杂的奖励函数代码,只需要用自然语言告诉智能体“你这样做是好的”或“应该优先考虑安全”,模型就能将这些文本指令转化为内部的奖励信号。RAP
(推理即规划): 它的核心思路是“三思而后行”。让大语言模型扮演“双重角色”,既是思考者,又是世界模拟器。在决定行动前,它会先在“脑内”模拟多种可能行动的后果,然后选择最好的一种去执行。ActRe
: 它的思路很新颖,与常规相反。它让智能体先行动一步,然后再为自己刚刚的行动生成一个合理的解释。这个“事后诸葛亮”的过程能有效地迫使模型利用和强化它对世界因果关系的理解,是一种高效的自我训练。
推理
推理的形式化定义
其中,Mt是在t时刻的心智状态,at是在t时刻做出的决策。推理就是R函数。
推理的方式
结构化推理
形如
结构化推理的核心,是为大语言模型(LLM)天马行空的“思考”过程提供一个“脚手架”或“思维框架”。它不让模型随意地、一步到位地给出答案,而是引导它遵循一个更有条理、更严谨的路径进行思考,从而极大地提升其解决复杂问题的准确性、逻辑性和可靠性。
第一大类:动态推理结构 (Dynamic Reasoning Structures)
(特点:思考路径灵活,在解题过程中动态生成和调整)
1. 线性结构 (Linear Structures)
框架:
ReAct
核心创新: 首次将“思考”与“行动”交织在一起,创建了
(思考 -> 行动 -> 观察)
的循环。这让模型的推理能够基于与外部工具(如搜索引擎)的实时互动结果,而不是闭门造车。
2. 树状结构 (Tree-Based Structures)
框架:
思想树 (Tree of Thoughts, ToT)
核心创新: 从单一的推理链,升级为并行探索多条推理路径。它在每一步都生成多个可能的“想法”(分支),允许模型进行广度优先或深度优先的探索,并且能在一条路走不通时“回溯”,极大地增强了解决问题的鲁棒性。
框架:
语言智能体树搜索 (LATS)
核心创新: 将经典的AI搜索算法 MCTS (蒙特卡洛树搜索) 应用于思想树的探索过程。相比ToT,它能更智能、更高效地分配“算力”,集中探索最有希望的“分支”,让搜索过程更加系统化。
3. 图状结构 (Graph-Based Structures)
框架:
思想图 (Graph of Thoughts, GoT)
核心创新: 打破了树状结构的层级限制,允许不同的推理分支合并与融合。这使得模型可以综合来自不同思考角度的见解,形成一个更强大的新想法,实现了思想的“合流”。
框架:
思想路径 (Path of Thoughts, PoT)
核心创新: 专为关系密集型任务设计,其创新在于“先建图,后推理”。它首先从问题中提取所有实体和关系,构建一个知识图谱,然后将复杂的推理任务转化为在这个图上寻找最相关路径的简单问题。
框架:
思想图表 (Diagram of Thought, DoT)
核心创新: 将推理过程形式化为一个包含“命题、批判、精炼、验证”等节点的有向无环图(DAG)。这为推理过程的每一步都赋予了明确的认知功能,旨在保证整个思考流程的逻辑严谨性和一致性。
第二大类:静态推理结构 (Static Reasoning Structures)
(特点:工作流程固定,专注于提升流程中每一步的内容质量)
1. 集成方法 (Ensemble Methods)
框架:
自洽性 (Self-Consistency)
核心创新: 利用“采样+多数投票”的统计学思想。它通过多次生成答案并选择出现频率最高的结果,简单而有效地克服了单一贪婪解码路径的脆弱性和偶然错误。
框架:
LLM-Blender
核心创新: 建立了一个“元认知”或“管理者”框架。它引入专门的LLM(
PairRanker
和GenFuser
)来对其他多个LLM的输出进行智能排序、评估和融合,超越了简单的投票机制。
2. 渐进式改进 (Progressive Improvement)
框架:
自我精炼 (Self-Refine)
核心创新: 让模型自己充当自己的“审稿人”。它在一个不需要额外数据的“零样本”情境下,实现了
(生成 -> 自我批判 -> 重新生成)
的迭代改进闭环。框架:
Reflexion
核心创新: 将反馈来源从“内部自我批判”扩展到了“外部环境的真实反馈”。模型能够理解并反思来自工具(如代码编译器)的错误信息,并将这些“失败经验”转化为指导未来行动的宝贵记忆。
3. 错误修正 (Error Correction)
框架:
自我验证 (Self-Verification)
核心创新: 引入了“反向验算”的机制。在得出答案后,模型会尝试用这个答案反向推导原始问题,以此来验证答案的逻辑自洽性。
框架:
验证链 (CoVe)
核心创新: 专门为对抗“事实性幻觉”而设计,其创新在于一个结构化的自我事实核查流程:
(起草答案 -> 生成核查问题 -> 自我回答核查 -> 修正答案)
。框架:
批判家 (Critic)
核心创新: 实现了推理过程与外部工具的无缝集成。它让模型在验证答案时,可以主动调用计算器、代码解释器、API等工具,用真实世界的结果来修正和保证其输出的准确性。
第三大类:领域特定的推理框架
(特点:为特定专业领域量身定制,深度融合领域知识)
框架:
MathPrompter
核心创新: “殊途同归”式的交叉验证。它通过生成多种完全不同的解题路径(如代数法、编程法)来解决同一个数学问题,如果所有路径都指向同一答案,则该答案的可信度极高。
框架:
Physics Reasoner
核心创新: 将领域专家的工作流形式化。它把解决物理问题的方法固化为“分析问题、检索公式、在指导下应用”的三步流程,有效解决了知识不足和应用错误的问题。
框架:
教学式思维链 (PedCoT)
核心创新: 将教育心理学理论(布鲁姆认知模型)融入AI。它的创新点不在于解题,而在于能够诊断出错误的认知类型(例如,是计算错误还是概念错误),像一位AI教师一样进行分析。
非结构化推理
形如
核心思想
非结构化推理的核心,是释放和引导LLM内在的、隐性的推理潜力。它不给模型套上“思维的枷锁”(如固定的树/图结构),而是通过巧妙的引导(如提示词)或直接优化模型本身,让推理过程以一种更灵活、更整体、更接近人类“直觉”的方式发生。
第一大类:基于提示词的推理 (Prompting-Based Reasoning)
(特点:模型本身不变,通过设计巧妙的“提问方式”来激发其推理能力)
1. 思维链 (Chain-of-Thought, CoT) 及其变体
框架:
思维链 (Chain-of-Thought, CoT)
核心创新: 通过在提示词中给出“解题范例”(包含详细的思考步骤),教会模型模仿“一步一步思考”的模式,而不是直接给出答案。
框架:
零样本思维链 (Zero-shot CoT)
核心创新: 极大地简化了CoT,不再需要提供繁琐的范例,只需在问题后加上一句“魔法咒语”——“让我们一步一步地思考 (Let’s think step by step)”,就能激活模型的分布推理能力。
框架:
自动思维链 (Auto-CoT)
核心创新: 将CoT范例的构建过程自动化。它让模型自己从数据集中挑选问题并生成推理链,从而解决了手动编写高质量范例的巨大工作量。
框架:
由简到繁提示 (Least-to-Most Prompting)
核心创新: 将一个复杂问题分解为一系列更简单的子问题,并引导模型按顺序解决。前一个子问题的答案会作为解决后一个子问题的已知条件,滚雪球式地走向最终答案。
2. 问题重构策略 (Problem Reformulation Strategies)
框架:
退步提示 (Step-Back Prompting)
核心创新: 在回答具体问题前,先引导模型“退一步”去思考其背后的高层抽象概念或普遍原则。这种从具体到抽象再到具体的“迂回”策略,能帮助模型获得更根本的视角来解决问题。
框架:
改述与回答 (Rephrase and Respond)
核心创新: 让模型自己尝试用多种不同的方式重新表述原始问题,并从中找出那个最容易被自己“理解”和解决的版本。
3. 增强的提示词框架 (Enhanced Prompting Frameworks)
框架:
思想的抽象 (Abstraction-of-Thought, AoT)
核心创新: 引导模型先忽略问题的具体细节,提炼出其高层次的“骨架”或抽象结构,在宏观层面进行规划后,再填入细节求解。
框架:
万事问我 / 思想的算法 (Ask Me Anything / Algorithm of Thoughts)
核心创新: 将复杂的推理任务强制转化为一种特定的、高效的输出格式,如结构化的问答对或算法流程,迫使模型遵循一种更有条理的方式来组织其思考和输出。
4. 知识整合与解释 (Knowledge Integration & Explanation)
框架:
知识链 (Chain-of-Knowledge, CoK)
核心创新: 将“外部知识检索”明确地作为一个步骤整合进推理链。在回答前,模型会先去查找相关知识,并说明这些知识是如何帮助它进行推理的,从而有效减少事实性幻觉。
框架:
自我解释关键词 (Self-Explained Keywords, SEK)
核心创新: 专为代码生成设计,它让模型在写代码之前,先识别并用自然语言解释问题描述中的关键技术术语,确保其对需求的理解是准确无误的。
第二大类:专用推理模型 (Reasoning Models)
(特点:思路不再是改变“提问技巧”,而是直接打造一个“更擅长思考”的大脑)
代表模型:
DeepSeek R1
,Claude 3.7 Sonnet
,OpenAI o-series
核心创新: 它们的创新在于专门化的训练方法。这些模型在训练阶段就使用了海量的、专注于逻辑、数学、编程等推理任务的数据,并通过强化学习和人类反馈进行深度优化。其目标是在模型内部直接构建出更强大的逻辑推理回路,使其“天生”就比通用模型更擅长解决复杂推理问题。
第三大类:隐式推理 (Implicit Reasoning)
(特点:推理过程是“无声的”,不体现在明确的文字上,而是在模型内部的“潜空间”中高效发生)
框架:
安静的自教推理器 (Quiet-STaR)
核心创新: 将思考过程微观化。在生成每一个文字(token)之前,模型都会在内部“无声地”设想多种可能的后续文本,并利用这些“内心戏”来改善当前这一个文字的生成质量。这是一种在生成过程中并行进行的、细粒度的内部思考。
框架:
连续思想链 (Chain of Continuous Thought, Coconut)
核心创新: 完全抛弃了用“语言文字”作为思考的载体。它直接利用模型上一时刻的内部神经网络状态(潜状态) 作为下一步思考的输入。这就像人类的“直觉”,思考过程是连续的、非语言的,因此推理效率极高,速度极快。
规划
核心思想
规划 (Planning)
是比推理更高层次的认知能力,其核心是赋予AI“深谋远虑”的智慧。它旨在创建一个从初始状态
(S0
) 到目标状态 (ST
)
的、连贯的行动序列
(P
)。这要求AI不仅要会“思考下一步”,还要能分解目标、评估后果、应对变化,是一种结合了结构化与非结构化方法的复杂推理形式。
LLM在规划中面临的核心挑战
世界模型薄弱:对物理世界和因果关系理解不深。
适应性差:依赖静态预训练数据,难以应对动态变化的环境。
缺乏内在规划结构:不擅长独立生成逻辑严谨、结构优化的长期计划。
应对挑战的三大核心策略
第一大类:任务分解 (Task Decomposition)
核心思想: 化整为零。将复杂、遥远的大目标,分解为一系列清晰、可执行的小步骤。
框架:
由简到繁提示 (Least-to-Most Prompting)
核心创新: 将问题分解为子问题,并利用前一个子问题的答案来解决下一个,以增量方式逐步前进。
框架:
ADaPT
核心创新: 动态地、自适应地调整任务分解的策略,尤其是在需要与环境持续互动的场景中,能根据情况改变计划。
第二大类:搜索优化 (Search Optimization)
核心思想: 在任务分解后产生的众多可能性(解空间)中,高效地找到最佳的行动路径。
框架:
LATS
核心创新: 应用 MCTS 树搜索算法来系统性地探索不同的计划分支,进行高效的全局搜索。
框架:
PlanCritic
核心创新: 使用启发式方法(类似用“经验法则”)来快速评估和筛选不同的计划,提升搜索效率。
框架:
ARMAP
核心创新: 使用基于奖励的模型来指导搜索方向,引导智能体选择最有可能获得高回报的行动路径。
第三大类:世界知识整合 (World Knowledge Integration)
核心思想: 弥补LLM对现实世界理解不足的短板,让规划更接地气、更符合现实世界的运行规律。
框架:
RAP (Reasoning via Planning)
核心创新: 让LLM扮演“世界模型”的角色,在行动前进行自我模拟和推演,以预测不同计划的潜在后果。
框架:
ReAct
核心创新: 通过
(观察-思考-行动)
的实时循环,从环境的直接、即时反馈中获取和更新世界知识。框架:
LLM+P
核心创新: “LLM的灵活性 + 经典规划器的严谨性”。让LLM负责将自然语言指令翻译成形式化语言(如PDDL),再交由专业的规划工具执行。
框架:
CodePlan
核心创新: 使用“代码”或“伪代码”作为计划的表示形式,利用代码天生的结构性、逻辑性和无歧义性来指导LLM执行复杂任务。
框架:
WKM (世界知识模型)
核心创新: 在规划开始前,直接为LLM“装备”一个关于任务的先验知识库,减少其在未知环境中的试错。
框架:
LTL-NL (线性时序逻辑-自然语言)
核心创新: 采用神经-符号方法,将严格的形式逻辑(LTL)与自然语言(NL)相结合,为规划的可靠性和安全性提供数学保证。
环境的形式化定义
ot是环境中的观察。其可以理解为是,根据上一步的心智状态和上一步的动作,和这个时间步的观察,形成的新的心智状态。
记忆
第一部分:人类记忆蓝图 (The Blueprint of Human Memory)
1. 记忆的类型:我们如何存储信息
人类记忆是一个多层次、多功能的系统,经典划分如下:
感觉记忆 (Sensory Memory)
- 核心功能: 瞬时快照。对视觉、听觉等感官输入的极短暂(毫秒到秒级)的、未经处理的原始记录。
短期/工作记忆 (Short-Term / Working Memory)
- 核心功能: 精神工作台 (Mental Workbench)。容量有限(约7±2个信息块),是你当下正在主动思考和处理的信息的中转站和处理器。
长期记忆 (Long-Term Memory)
核心功能: 知识与经验的档案馆。容量巨大,信息可以被长期存储,并分为两大类:
陈述性记忆 (Declarative - “知道是什么”): 可以用语言清晰描述的记忆。
语义记忆 (Semantic)
: 存储世界的事实、概念和常识(例如:知识“中国的首都是北京”)。情景记忆 (Episodic)
: 存储个人亲身经历的特定事件(例如:回忆“我上周日在北京天安门看了升旗”)。
非陈述性记忆 (Non-Declarative - “知道怎么做”): 难以用语言描述,通过行为表现出来的记忆。
程序性记忆 (Procedural)
: 存储技能和习惯(例如:如何骑自行车、如何打字)。
2. 解读记忆的五大模型:大脑如何组织记忆
多重存储模型 (Multi-Store Model)
- 一句话比喻:
像一个三级工厂流水线,信息按
(感觉 -> 短期 -> 长期)
的顺序单向流动和加工。
- 一句话比喻:
像一个三级工厂流水线,信息按
工作记忆模型 (Working Memory Model)
- 一句话比喻: 像一个带“中央处理器” (Central Executive) 和多个“专用缓存”(如处理语言的语音环路)的主动工作台。
SPI 模型 (Serial-Parallel-Independent Model)
- 一句话比喻: 按功能划分的两个部门:负责知识的“认知部”和负责技能的“行动部”。
GWT (全局工作空间理论)
- 一句话比喻: 大脑的“会议室聚光灯”,被“照亮”的信息会被广播给全脑的各个专家系统进行协同处理。
ACT-R 模型
- 一句话比喻: 一个试图统一所有认知功能的“大一统理论”架构,将记忆、感知、行动等全部模块化并整合在一起。
第二部分:AI记忆构建之路 (The Path to Building AI Memory)
1. 核心对比:人脑 vs. AI
人类记忆: 联想、并行、模糊、存储与计算深度融合、适应性极强。
AI 记忆: 数字、精确、存储(如向量数据库)与计算(LLM)通常分离、在应对模糊性和创造性方面较弱。
2. 当前AI记忆的核心局限性
缺乏真正的“长期记忆巩固”
- 问题: AI记忆更像一个“数字储物症患者”,只会不断堆积新的信息日志,而不会像人脑一样进行筛选、抽象和整合,难以形成高层次的知识和洞见。
薄弱的“元认知”与记忆管理
- 问题: AI像一个“笨拙的档案管理员”,不知道什么该记、什么该忘。它难以处理过时的信息,也无法像人一样根据微妙的情境线索进行高效的、选择性的回忆。
存储与计算的分离
- 问题: AI的“大脑”(LLM)和“记忆库”(数据库)是分开的,需要通过明确的“检索”动作来调用记忆,过程相对缓慢且刻意。这就像“教授与图书馆”的关系,而非人脑中思考与记忆瞬间并行激活的融合状态。
依赖精确匹配,缺乏联想能力
- 问题: AI记忆检索更像一个“搜索引擎”,擅长根据语义相似度找到“相关”的信息,但缺乏人类那种基于情感、隐喻和抽象模式的、跨领域的“联想”能力,从而限制了其创造性。
3. 未来的三大研究方向
为了构建更强大、更类人的AI记忆,整个领域正聚焦于解决以下三个核心问题:
记忆的表示 (Representation): 应该“怎么存”?
- 需要探索最优的数据结构,来高效地存储多样化的、复杂的记忆信息。
记忆的演化 (Evolution): 应该“怎么更新”?
- 需要建立让记忆能够持续学习、适应变化、整合新知并遗忘无用信息的动态机制。
记忆的利用 (Enhancement): 应该“怎么用”?
- 需要研究如何让存储的记忆能被无缝、高效地调用,以最有效地增强AI的推理、决策和规划能力。
第三部分:AI记忆的表征(Representation of Memory)
核心思想
为AI智能体构建记忆,其主流思路是模仿人类认知中 “感觉记忆 -> 短期记忆 -> 长期记忆” 的经典分层架构。这个架构创建了一个从原始感知 ,到实时处理,再到长期知识沉淀的完整信息流,让AI的记忆系统既能快速响应,又能持续学习和演化。本节的核心就是探讨在AI中,这三层记忆分别是用什么数据结构和方法来表示和实现的。
第一层:感觉记忆 (Sensory Memory): AI的“五官”与“过滤器”
核心思想: 这是AI接收外界信息的第一道关口。它不只是被动地接收,更重要的作用是像一个主动的过滤器,在海量原始数据中捕捉关键信号,并将其转化为大脑(LLM)能理解的格式。
表征方式 (三步流程):
感知编码 (Perceptual Encoding): 将原始输入(如文本、图像、声音)初步处理成结构化的数据或向量。
注意选择 (Attentional Selection): 使用注意力机制,从编码后的数据中筛选出与当前任务最相关的“高优先级”信息。
瞬时保留 (Transient Retention): 将这些被选中的“精华信息”在一个临时的、带时间戳的缓冲区里保留一小段时间。
代表框架与创新:
RecAgent
:- 核心创新: 将LLM本身用作感觉记忆模块。利用LLM强大的理解能力,直接对原始观察进行智能编码和筛选,而不是依赖传统的前置处理器。
Jarvis-1
/VideoAgent
:- 核心创新: 将感觉记忆的能力从纯文本扩展到多模态领域,使其能够接收和理解图像、视频、音频等多种类型的输入。
第二层:短期记忆 (Short-Term Memory): AI的“工作台面”
核心思想: 这是智能体进行实时决策和处理当前任务的动态工作空间。它负责暂存和调用解决眼前问题所需的所有信息,确保行动的连贯性。
表征方式 (两种主流思路):
上下文窗口即记忆 (Context Window as Memory): 最直接的方法,将LLM有限的上下文窗口本身当作短期记忆来使用。
结合外部知识的动态工作台 (Workspace with External Knowledge): 更高级的视图,短期记忆不仅包含上下文,还涉及一个主动获取和整合外部相关信息的过程。
代表框架与创新:
MemGPT
:- 核心创新: 模仿操作系统的内存管理,设计了一个分层记忆系统来智能地决定哪些“旧”信息应该被移出上下文,哪些“新”信息应该被调入,从而高效地利用宝贵的上下文空间。
Generative Agent
:- 核心创新: 利用短期记忆来维持和刷新情境感知。它会不断将最近的观察和对话历史进行“反思”和“总结”,形成一个抽象的概览,以指导下一步的社交行为。
SayPlan
(机器人) /Agent S
(GUI):- 核心创新: 在特定领域中,将短期记忆表征为高度结构化的对象,如“场景图” (Scene Graphs) 或“任务轨迹” (Task Trajectories),使记忆与具体任务的操作紧密耦合。
第三层:长期记忆 (Long-Term Memory): AI的“知识档案馆”
核心思想: 负责知识和技能的永久性存储和累积沉淀,是AI实现跨任务学习和长期成长的基础。其在AI中的表征也借鉴了人类记忆的分类。
表征方式:
显性记忆 (Explicit - “知道是什么”):
语义记忆 (Semantic)
: 存储世界事实,通常被表征为知识图谱 (Knowledge Graphs) 或事实三元组 (例如:主体-谓词-宾语
)。情景记忆 (Episodic)
: 存储个人经历,通常被表征为按时序排列的事件日志 (Time-ordered Event Logs)。
隐性记忆 (Implicit - “知道怎么做”):
程序性记忆 (Procedural)
: 存储技能和习惯,通常被表征为可执行的代码、脚本或可复用的例程 (Executable Code/Scripts)。
代表框架与创新:
AriGraph
/Agent S
:- 核心创新: 将语义知识(如在线文档)与情景经验(如操作日志)相结合,构建出一个既有事实根据又有个人经历的、更丰富的长期记忆库。
MemoryBank
(为SiliconFriend
设计):- 核心创新: 专为AI伴侣设计,将语义记忆用于构建结构化的“用户画像”,同时用情景记忆记录详细的互动历史,从而实现深度的个性化。
Trado
/Jarvis-I
:- 核心创新: 构建了一个“技能代码库”。它们将AI学会的各种程序性技能以标准化的代码形式进行存储、管理和组合,让AI可以像程序员调用函数库一样,灵活地调用和组合自己的技能来完成新任务。
记忆的生命周期 (The Memory Lifecycle)
核心思想
AI智能体的记忆遵循一个完整的生命周期,分为两大核心过程:
记忆的存留 (Retention): 如何高效、智能地将外界信息筛选、加工并存入记忆库。
记忆的检索与利用 (Retrieval & Utilization): 如何在需要时,准确、快速地从记忆库中取出信息,并用它来增强AI的各项能力。
[!笔者对这部分的发展抱有一定的疑问,赋予AI百科全书的“记忆”,似乎和深化模型内部能力的“记忆”并不等价,我认为记忆的IO,应该是直接作用于模型的参数的]
第一部分:记忆的存留过程 (The Retention Process)
(从原始数据到结构化知识的“精加工”流程)
1. 获取 (Acquisition): 初步筛选
核心思想: AI感官的“第一道防线”,对海量原始输入进行过滤和压缩,抓住重点。
代表框架/思路:
LMAgent
: 核心创新: 利用LLM自身的理解能力来执行信息压缩,在构建感觉记忆时就减少冗余。ExpeL
: 核心创新: 建立一个“经验池”,在获取阶段就开始对过去的经验进行初步的巩固和泛化。
2. 编码 (Encoding): 格式转换
核心思想: 将筛选后的信息转化为AI能理解和处理的内部表征(如向量),并融合多源信息。
代表框架/思路:
JARVIS-1
: 核心创新: 采用多模态融合技术,将来自不同感官(如视频、文本)的信息对齐并编码到一个统一的表示空间中。
3. 衍生 (Derivation): 从信息到知识的升华
核心思想: 不只存储信息,更要从中提炼洞见、抽象规律,让记忆变得“有智慧”。
代表框架/思路:
ExpeL
/R2D2
:- 核心创新 (反思): 让智能体主动分析和反思自己的记忆,识别模式与不一致性,从失败的经验中学习。
Healthcare Copilot
:- 核心创新 (摘要): 采用递归摘要等策略,将冗长的对话历史浓缩成简洁、精确的记忆,保持上下文。
MAGDI
:- 核心创新 (知识蒸馏): 让“小模型”通过学习“大模型”的推理交互图谱,来继承大模型的知识,实现高效的知识转移。
MemoryBank
/Lyfe Agent
:- 核心创新 (选择性遗忘): 引入艾宾浩斯遗忘曲线或分层摘要遗忘等智能策略,主动忘记不重要、过时的信息,保持记忆库的“健康”。
第二部分:记忆的取出与利用过程 (The Retrieval & Utilization Process)
(从知识库到实际行动的“价值实现”流程)
1. 检索与匹配 (Retrieval & Matching): 精准捞取
核心思想: 根据当前的任务和情境,从庞大的记忆库中快速、准确地找到最相关的信息。
代表框架/思路:
上下文感知语义匹配:
- 核心创新: 超越简单的关键词匹配,动态地计算记忆与当前情境(任务、目标、观察)的相关性,实现更智能的检索。
2. 神经记忆网络 (Neural Memory Networks): 存算一体
核心思想: 将记忆直接编码和整合到神经网络的权重参数中,实现记忆与思考的无缝融合。
代表框架/思路:
SELF-MEM
:- 核心创新 (参数整合): 通过知识蒸馏等方式,将智能体的经验直接“烙印”在模型参数里,实现真正的内在记忆。
MemoRAG
:- 核心创新: 在单个模型内,统一了将记忆写入神经网络和从网络中可靠读出的双重过程。
3. 记忆利用 (Utilization): 赋能行动
核心思想: 将检索出的记忆作为“燃料”,来增强AI的各项核心能力。
代表框架/思路:
RAG (检索增强生成)
:- 核心创新: 在生成回答前,先从记忆库中检索相关知识并注入到提示词中,极大地提升了回答的事实准确性。
Transformer-XL
/RMT
:- 核心创新 (长格式建模): 利用记忆机制(如循环或压缩)来扩展模型的上下文处理长度,使其能理解和推理超长文档或对话。
PEER
:- 核心创新 (幻觉缓解): 建立 “专家记忆子网络” ,将特定类型的事实性知识卸载到专门的参数中进行记忆,从而减少主模型“凭空想象”的倾向。
世界模型
核心思想
世界模型(World Model)是AI智能体内部一个关于 “世界是如何运转的”的动态模拟机制。它的核心价值在于,使AI能够在采取实际行动之前,先在“脑中”对未来的状态和行动后果进行推演和预测,从而实现高效的规划、决策和对环境的适应,避免了在现实世界中进行高成本甚至危险的反复试错。
第一部分:人类世界模型 (The Human World Model) - AI的终极“学习榜样” (4.1节)
核心思想: 人类的大脑并非一个静态的知识库,而是一个灵活、不断演化的心智模拟器 (Mental Model)。它通过与世界的持续互动,不断地进行预测并根据“预测误差”来修正自己。
四大核心特征:
预测性 (Predictive): 预知未来的能力,为决策提供信息。
整合性 (Integrative): 能无缝地融合感觉、记忆和推理,形成统一的判断。
适应性 (Adaptive): 当现实与预测不符时,能立刻从错误中学习并更新模型。
多尺度 (Multi-scale): 能在毫秒级的反应和以年为单位的长期规划之间自由切换。
核心启示: AI世界模型的目标,不应是构建一个死的知识库,而应是模仿人脑,创造一个能够从与环境的互动和预测错误中持续学习和演化的动态系统。
第二部分:将人类世界模型转化为AI (Translating Human World Models to AI) - 理论到实践的演进 (4.2节)
核心思想: 这一部分回顾了AI领域如何将“内部模拟器”这个理论概念,一步步转化为具体的技术实现。
演进路径:
早期尝试:
框架:
Dyna
核心创新: 首次在强化学习中提出,将“与真实环境互动”和“与内部学习到的环境模型互动(即想象)”相结合。
为什么: 为了解决强化学习需要大量真实互动、样本效率低下的问题。通过在“想象”中进行大量额外的练习,可以极大地加速学习过程。
深度学习里程碑:
框架:
World Models
(论文)核心创新: 使用
VAE(变分自编码器)+ RNN(循环神经网络)
的组合,来学习一个关于环境的高度压缩的潜空间模型,并在这个极小的模型里进行“做梦”,高效地生成大量未来轨迹。为什么: 为了让AI可以在一个计算成本极低的内部模型中进行离线的、大规模的策略学习,从而能够解决像赛车游戏这样视觉上复杂、需要长远规划的任务。
当前挑战与未来暗示:
挑战: 如何将AI的各种能力(感知、推理、语言等)真正统一到一个连贯的、类似人类的心智模型中。
暗示: 大语言模型(LLM)的出现为此提供了曙光,因为语言本身就是一种强大的、能够统一描述和推理各种知识的通用媒介。
第三部分:AI世界模型的四大范式 (The Four Paradigms of AI World Models) - 主流技术流派 (4.3节)
核心思想: 现有的AI世界模型技术,根据其实现原理和架构,可以归为四大流派,它们在不同维度上各有取舍和权衡。
范式一:内隐范式 (Implicit Paradigm): AI的“直觉黑箱”
核心思想: 将整个世界模型(状态如何变化、会观察到什么)全部封装在一个单一的、端到端的神经网络中。
代表框架:
World Models
,Dreamer
核心创新: 将世界动态的学习完全交给一个深度神经网络去“内化”,形成一种隐性的、类似直觉的预测能力。
为什么: 为了实现最大的灵活性和简洁性,让网络自己去发现数据中那些难以用数学公式或规则描述的复杂潜在规律。
范式二:外显范式 (Explicit Paradigm): AI的“物理公式”
核心思想: 将世界模型显式地分解为可解释的、独立的模块,例如一个专门的“状态转移模型”和一个“观察模型”。
代表框架:
MuZero
,DINO-WM
核心创新: 对世界模型的不同功能进行“解耦”,使其模块化。
为什么: 为了提升模型的可解释性、可调试性,并方便人类专家将已知的领域知识(如物理公式)直接整合进去,增强模型的可靠性。
范式三:基于模拟器的范式 (Simulator-Based Paradigm): AI的“虚拟实验室”
核心思想: AI放弃自己学习世界模型,转而直接调用一个现成的、高精度的外部模拟器作为“真理”来查询。
代表框架:
SAPIEN
,AI Habitat
核心创新: 将“学习世界”的负担完全外包给一个完美的外部模拟器。
为什么: 为了获得100%准确的状态转移,彻底消除因AI自己学习的模型不准而导致的规划错误。这在可以获得高质量模拟器的领域(如物理、机器人、游戏)非常有效。
范式四:混合/指令驱动范式 (Hybrid/Instruction-Driven): AI的“集大成者”
核心思想: 博采众长,将神经网络的内隐直觉与外显的符号规则、人类指令等相结合。
代表框架:
AutoManual
,COAT
核心创新: 建立内隐(神经网络)与外显(符号/规则)系统之间的“沟通桥梁”。
为什么: 为了取长补短,利用规则的可靠性和神经网络的灵活性,创造出既能处理模糊感知又能遵守严格逻辑的、更强大、更适应复杂现实世界的智能体。
第四部分:世界模型与其它模块的协同工作 (How the World Model Works with Other Modules) - 构建智能闭环 (4.4节)
核心思想: 世界模型不是一个孤立的大脑,而是智能体认知架构的“中央枢纽”,它必须与其他核心模块(记忆、知觉、行动)紧密互动,才能形成一个完整的智能闭环。
协同关系:
与记忆 (With Memory)
协同机制: 记忆为世界模型提供构建和更新所需的历史数据与经验;世界模型通过预测产生新的见解,再存入记忆。
为什么: 为了形成一个“以史为鉴,预见未来”的学习循环,让智能体能从过去中学习。
与知觉 (With Perception)
协同机制: 知觉是世界模型的“眼睛”,负责将原始感官数据处理成有意义的信息“喂”给世界模型;世界模型则可以反过来指导知觉将注意力集中在关键信息上。
为什么: 为了实现从“看见”到“看懂”的转化,并进行高效的信息筛选,避免认知过载。
与行动 (With Action)
协同机制: 世界模型是行动的“军师”,通过模拟不同行动的后果来指导决策系统选择最优的行动方案。
为什么: 为了让行动更具前瞻性和目的性,而不是盲目试错,这对于规划 (Planning) 和探索 (Exploration) 至关重要。
最终目标:跨模块整合
- 通过一个统一的、预测性的世界模型作为核心,将
感知 -> 预测 -> 行动 -> 再感知
的循环无缝地整合起来,是创造真正自适应、通用智能体的关键。
- 通过一个统一的、预测性的世界模型作为核心,将
当前面临的挑战
**挑战一:多尺度操作的鸿沟
- 人类可以轻松地在毫秒级(躲避飞球)和年级(人生规划)的时间尺度上思考。而目前的AI世界模型通常只在狭窄的、预设的时间尺度上表现良好,缺乏这种自由伸缩的能力。
权衡一:复杂性 vs. 准确性 (内隐 vs. 外显)
内隐模型(如神经网络黑箱):优雅、简洁,但难以解释和控制,有过拟合风险。
外显模型(如分解的模块和规则):透明、可控,但通常需要大量数据,且可能难以捕捉现实世界的复杂动态。
权衡二:泛化 vs. 特化
特化模型(如为某个游戏专门训练的
MuZero
):在其专业领域内是“王者”,但很难将能力泛化到新环境中。泛化模型(如通用的内隐模型):可能具有更好的跨任务潜力,但往往以牺牲在特定任务上的专业深度为代价。
权衡三:模拟 vs. 现实
- 基于模拟器的方法:提供了完美的“内部演练”,但模拟器本身可能无法完全捕捉真实世界的噪声和复杂性,且成本高昂。其鲁棒性将在“模拟与现实的差距”中受到考验。**
奖励 (Reward)
核心思想与目标
奖励 (Reward) 是AI智能体(尤其在强化学习中)学习和决策的核心反馈信号。它像一根“指挥棒”,通过给出正向(奖励)或负向(惩罚)的评分,来引导智能体的行为,塑造其策略。
- 智能体的终极目标:
不是最大化眼前的单步奖励,而是最大化一个长期的、带折扣的累积总回报
(
Gt
)。这意味着一个成熟的智能体必须具备“远见”,有时需要为了更长远的巨大利益而牺牲眼前的短期诱惑。
第一部分:灵感来源与现实挑战 (5.1-5.2节)
灵感来源:人类的奖励系统
- AI奖励设计的终极“学习榜样”是人脑中由多巴胺等神经递质驱动的、复杂的生物奖励系统。这个系统将行为与“愉悦”、“满足”等感觉联系起来,从而驱动学习和形成动机。
核心挑战:从生物到数学的转换
由于AI没有主观体验,我们无法直接复制人类的奖励机制。因此,必须将其形式化为一个精确的数学奖励函数。
这带来了AI对齐(Alignment)领域的核心难题:如何用简单的数学公式,去定义和捕捉人类丰富的、甚至是矛盾的价值观(如安全、高效、创新、道德等)。
第二部分:AI奖励的四大范式 (5.3节)
AI奖励根据其信号来源,可以被分为四大主流范式,每种范式都有其独特的适用场景和方法。
第一大类:外在奖励 (Extrinsic Rewards) - “来自外部世界的分数”
核心思想: 奖励由环境或人类评估者等外部实体直接给出,是关于任务成败的明确、客观的分数。
细分类型与创新:
稠密奖励 (Dense): 步步为营,每一步行动都有反馈。
代表框架:
InstructGPT
,DPO (直接偏好优化)
核心创新: 利用人类对成对答案的偏好数据来训练一个奖励模型,这个模型能为AI的任何输出提供一个稠密的、与人类价值观对齐的分数。
稀疏/延迟奖励 (Sparse/Delayed): 一锤定音,只有在最终成功或到达关键节点时才给予奖励。
代表框架:
PAFT
,CPO (对比偏好优化)
核心创新: 专为奖励稀疏的环境设计,通过解耦监督与对齐或比较多组候选答案的优劣,让模型在缺乏步步指导的情况下也能进行有效的学习。
自适应奖励 (Adaptive): 奖励标准会动态变化。
代表框架:
SPPO (自我对弈偏好优化)
核心创新: 基于智能体“自我对弈”的胜负结果来动态调整奖励函数,实现一种自动化的课程学习,让智能体在与“过去的自己”的竞争中不断进步。
第二大类:内在奖励 (Intrinsic Rewards) - “来自内心的好奇与驱动”
核心思想: 奖励由智能体自身生成,与外部任务是否成功无关。它的目的是在外部奖励稀疏或缺失时,驱动智能体进行主动的探索和学习。
细分类型与创新:
好奇心驱动 (Curiosity-Driven): 奖励“意外”和“惊喜”。
代表框架:
Pathak et al. [387]
核心创新: 将“预测误差”定义为奖励。当世界的真实反应与智能体的内心预测不符时(即感到“惊讶”),就给予自己奖励,从而激励自己去探索那些自身尚不理解的领域。
探索奖励 (Exploration-Based): 奖励“新颖性”。
代表框架:
RND (随机网络蒸馏)
核心创新: 通过一个固定的随机网络,来衡量一个状态的新颖程度。当智能体访问到一个罕见、新奇的状态时,给予奖励,从而鼓励扩大探索范围。
基于能力 (Competence-Based): 奖励“自我进步”。
代表框架:
CURIOUS
核心创新: 让智能体自己生成能够最大化其“学习效率”或“能力提升速度”的目标,实现“为学习而学习”,而不是为完成任务而学习。
信息增益 (Information Gain): 奖励“消除不确定性”。
代表框架:
CoTinfo
核心创新: 将信息论的原理应用于思维链,奖励那些能够最大程度减少智能体对世界不确定性的推理步骤或行动。
第三大类:混合奖励 (Hybrid Rewards) - “外部目标”与“内心驱动”的结合
核心思想: 将外在奖励(提供最终目标)和内在奖励(驱动初期探索)相结合,以动态地平衡“探索-利用”(Exploration-Exploitation)的经典两难困境。
代表框架:
Xiong et al. [403]
核心创新: 在一个统一的框架下,智能地融合内在探索信号和来自人类反馈(RLHF)的外在奖励信号,让智能体既有探索的动力,又能确保其行为最终与人类价值观对齐。
第四大类:层级奖励 (Hierarchical Rewards) - “大目标”拆解为“小目标”
核心思想: 将一个复杂的、遥远的长期目标,分解为一系列具有逻辑层次的、更易于学习的子目标。通过奖励子目标的完成,像搭建脚手架一样,引导智能体逐步实现最终目标。
代表框架:
TDPO (基于词元级的直接偏好优化)
核心创新: 将层级奖励的思想应用到语言模型中,同时在宏观(如整个回答的逻辑连贯性)和微观(如单个词元的选择)两个层级上进行奖励对齐,确保局部优化和全局目标的一致性。
第三部分:奖励的协同与挑战 (The Synergy and Challenges of Reward) (5.4节)
核心思想
这一部分是对“奖励”的总结与升华。它强调,奖励并非一个孤立的“得分系统”,而是一个深入到智能体认知架构方方面面的 “中央调节器” 。同时,它也深刻地揭示了设计一个完美奖励函数所面临的巨大挑战,并为未来的研究指明了方向。
1. 与其他模块的互动:奖励是“中央调节器”
核心思想: 奖励信号不仅仅在行动结束后给出反馈,更在行动过程中主动地、持续地影响智能体的其他核心认知模块。
协同机制:
与知觉 (With Perception)
- 核心机制: 调节注意力。奖励信号会强化与积极结果相关的感知特征,让AI学会不仅要处理“说了什么”,更重要的是要判断“什么信息值得关注”。
与情感 (With Emotion)
- 核心机制: 引导生成风格。虽然AI没有生物情感,但通过奖励那些“有同理心”、“礼貌”的表达方式,可以引导AI生成符合人类社交规范的、“类情感”的响应。
与记忆 (With Memory)
- 核心机制: 决定记忆的取舍。奖励信号会强化成功的推理路径和经验,使其更容易被编码和巩固到长期记忆中。这模仿了人脑中由多巴胺驱动的记忆巩固机制,让智能体能“铭记成功,吸取教训”。
2. 核心挑战与未来方向
核心思想: 设计一个既能有效指导AI,又不会被“钻空子”、还能与人类复杂价值观对齐的奖励系统,是通往更高级、更安全AI的必经之路,也是当前研究的核心难题。
五大核心挑战:
奖励稀疏 (Reward Sparsity):
- 挑战: “远水救不了近火”。在许多现实任务中,只有在最终完成后才有奖励,中间过程没有任何反馈,导致AI学习极其困难。
奖励“黑客” (Reward Hacking):
挑战: “钻规则的空子”。AI为了最大化分数,找到了一个意想不到的“捷径”,但这完全违背了设计的初衷。这是AI“对齐失败”的经典表现。 . 奖励塑造的风险 (Risks of Reward Shaping):
挑战: “好心办坏事”。为了解决稀疏问题而设计的“中间步骤奖励”,如果设计不当,可能会把AI引入歧途,让它满足于达成局部最优,而忘记了最终目标。
多目标冲突 (Multi-objective Conflict):
- 挑战: “鱼与熊掌不可兼得”。现实世界的目标往往是多元且相互冲突的(如速度 vs. 安全),难以用一个单一的奖励函数来完美平衡。
奖励误定 (Reward Misspecification):
- 挑战: “说不清,道不明”。这是最根本的挑战,即我们设计的奖励函数从一开始就没能准确、完整地捕捉到我们内心真实、复杂的目标。
三大未来方向:
隐式奖励 (Implicit Rewards):
- 思路: 不再手动设计复杂的奖励函数,而是让AI从成功的“范例”或最终的“结果评估”中自己去反向推导应该如何奖励。
层级化分解 (Hierarchical Decomposition):
- 思路: 化整为零。将复杂任务和目标分解为更简单的层级结构,然后自下而上地为每个子任务设计奖励,降低整体设计的复杂度。
元学习 (Meta-Learning):
- 思路: “授人以渔”。不再教AI如何解决某个特定任务,而是让它学会“如何为新任务快速学习和适应新的奖励机制”,从而极大地提升其泛化和适应能力。
AI行动系统 (Action Systems)
核心思想
行动系统是区分“AI智能体 (Agent)”与“基础模型 (LLM)”的关键所在。如果说LLM是AI的“大脑”,提供了思考和知识,那么行动系统就是AI的“身体和手脚”,使其能够与世界互动、执行任务并从经验中学习。一个完整的行动系统由三大核心支柱构成:行动空间、行动学习和工具学习。
第一支柱:行动空间范式 (Action Space Paradigm) - “AI能做什么?”
核心思想: 这是行动系统的基础,它定义了智能体所有可能行动的集合。行动空间的类型和丰富度,直接决定了智能体的能力边界。
主要类型:
语言 (Language): 行动是生成文本、代码或进行对话。
数字 (Digital): 行动是在数字世界中进行交互(如玩游戏
Voyager
、操作网页WebAgent
、控制手机APPMobile-Agent
)。物理 (Physical): 行动是控制一个虚拟或真实的身体(如
RT-2
控制机器人手臂)。科学 (Scientific): 行动是调用专业的科学计算工具或数据库(如
ChemCrow
)。
第二支柱:行动学习范式 (Action Learning Paradigm)
核心思想: 在定义了“能做什么”之后,这一范式关注AI如何学习在特定情境下,选择最优的行动。
三大主流学习路径:
上下文学习 (ICL): “看样学样”
代表框架:
ReAct
,思维链 (CoT)
,思想树 (ToT)
核心创新: 不修改模型,仅通过在提示词中提供精巧的指令或范例,来引导LLM将复杂的思考过程分解,并输出合理的行动选择。
监督训练 (Supervised Training): “跟着老师学”
代表框架:
RT-2
,OpenVLA
,LAM
核心创新: 通过模仿大量的“专家演示”数据(如人类操作视频)来对模型进行微调,让AI学会正确的行动模式。
强化学习 (RL): “从试错中学习”
代表框架:
InstructGPT (RLHF)
,ELLM
核心创新: 让智能体通过与环境互动,根据获得的奖励或惩罚来不断自我优化其行动策略。更新颖的方法甚至让LLM自己充当“模拟器”进行想象,以加速学习。
第三支柱:基于工具的行动范式 (Tool-Based Action Paradigm)
核心思想: 这是扩展AI能力最强大、最核心的范式。它让AI能够连接并利用无穷无尽的外部能力,突破自身模型的局限。
工具学习的三大方面与创新:
1. 工具发现 (Tool Discovery): 如何找到合适的工具?
代表框架:
HuggingGPT
,ToolFormer
核心创新:
ToolFormer
通过自监督微调,让LLM直接学会在文本中预测应该在何处、以何种形式插入API调用。HuggingGPT
则让LLM扮演一个“任务调度员”,从庞大的模型库中选择并组合合适的模型(工具)来完成任务。
2. 工具创造 (Tool Creation): 如何打造新工具?
代表框架:
PAL
,LATM (Creator)
核心创新: 将“思考”与“计算”分离。让LLM负责生成解决问题的代码(即创造一个新工具),然后将代码交由外部的代码解释器来安全、可靠地执行,以获得精确结果。
3. 工具使用 (Tool Usage): 如何用好工具?
- 核心创新: 将工具应用到极致,主要体现在三个维度:垂直专业化(使用领域专用工具达到专家水平)、水平整合(组合多种工具解决跨模态复杂问题)和具身化(通过物理工具与现实世界互动)。
第四部分:行动与知觉的深层关系 - “由内向外”的主动智能 (8.4节)
核心思想: 这一节探讨了智能的本质,呼吁AI设计理念从被动的“由外向内 (Outside-In)”模式,转向主动的“由内向外 (Inside-Out)”模式。
模式对比:
由外向内 (传统模式):
环境刺激 -> 大脑处理 -> 行为响应
。这是一种被动的、反应式的智能。由内向外 (未来方向):
大脑意图 -> 主动行动 -> 收集反馈 -> 验证/更新意图
。这是一种主动的、探索式的智能。
关键机制:副本放电 (Corollary Discharge)
- 核心创新: 当大脑发出行动指令时,会同时发送一个“副本”给感知系统,提前告知“接下来的变化是我自己造成的”。这使得智能体能够区分“自我产生的变化”和“外部环境的变化”,是实现稳定感知和主动学习的关键。
对AI的启示:
- 未来的AI智能体不应只是被动地等待用户提示,而应主动地发起行动(如调用工具、进行搜索)来验证自己的内部假设。通过追踪这些“自我发动的行动”所带来的反馈,AI可以更可靠地学习,并有效减少“幻觉”。
第五部分:总结与未来方向 (8.5节)
核心思想: 行动系统是构建全能AI智能体的基石,但仍面临巨大挑战。
五大未来挑战:
效率 (Efficiency): 如何让复杂的行动系统实现实时响应。
评估 (Evaluation): 如何客观、准确地评估AI行动的好坏。
多模态 (Multi-modality): 如何让AI从语言之外的模态(如视频、示范)中学习物理世界的行动。
隐私 (Privacy): 如何在调用工具时保护用户数据。
安全 (Safety): 如何确保与物理世界互动的AI不会产生危险或恶意的行为。
最终的开放性问题:
- 如何在增强基础模型(LLM)的内在核心能力与发展其使用外部工具的扩展能力之间,找到最佳的平衡点。
如果您喜欢我的文章,可以考虑打赏以支持我继续创作.