首篇全新情景认知视角的大模型Agent综述
大家都在谈 Agent,真正拉开差异的关键,来自我们怎样理解 Agent。
若将 Agent 理解为由规划、记忆、行动、反思组成的系统,读者很快会记住一串模块名,却较难抓住它在真实环境里怎样持续工作。中科大的这篇 Survey 试图把问题向前推进一步。我们给出的核心判断是,Agent 的本质,来自资源约束下的序贯决策与搜索优化,也来自它对情境的持续组织与动态更新。
这也是这篇工作最想传递的价值。它提供了一套新的坐标系,让我们沿着一条清晰路径理解 Agent,也让“任务型智能系统”与“行为机理”进入同一个分析框架。
图 1:Agent 时代的核心问题,正在从模型生成走向情境中的连续求解。
一、什么是 Agent
在这篇 Survey 里,我们把 Agent 写成一个清晰的形式。它面对动态环境,追求目标完成,也依赖有限预算内的连续决策。动作生成需要结合当前情境,路径质量需要通过反馈评估,下一步选择则推动整条轨迹朝着目标效用提升。
形式化定义图
图 2:Agent 可以被理解为资源约束下的序贯决策与搜索优化过程。
用论文中的表达来说,Agent 可以被理解为一个在推理预算约束下寻找最优轨迹的系统:τ* = arg max E[U(τ)],其中每一步动作都由π_LLM(·|C_t)在当前情境C_t上生成,同时整条轨迹的代价受到预算B约束。
这一定义的意义很直接。它让我们看到,Agent 的关键任务,是沿着任务轨迹持续吸收外部反馈,组织内部状态,评估当前路径的价值,再决定下一步走向哪里。于是,系统行为的核心就落在“怎样做连续决策”与“怎样在路径空间里搜索”上。模块清单适合描述系统外观,序贯决策与搜索优化则更贴近行为机理。
二、什么是 Agentic AI
当 Agent 被放进更大的技术图景里,Agentic AI 的定义也就自然展开了。
Agentic AI 指向一种围绕目标持续组织感知、交互、推理与执行的智能形态。它让模型从一次回答延展到持续求解,也让单轮生成进入多步任务场景,进而形成一个会随环境演化而变化的情境系统。
换句话说,Agentic AI 关注的核心,已经从“模型会说什么”转向“系统怎样完成事情”。这种转向,正是今天 Agent 研究快速升温的根本原因。
三、大模型五层演化理论
如果把近两年的模型与系统发展放在一起看,一条非常鲜明的演化路径就会浮现出来。我们的论文用五层演化线索来概括这条路径:Chatbot → Reasoner → Agent → Innovator → Organizer。
五层演化理论图
图 3:从 Chatbot 到 Organizer,大模型能力演化的主线,是情境认知持续加深。
在 Chatbot 阶段,系统主要围绕文本提示和对话历史工作,擅长语言理解与生成。进入 Reasoner 阶段之后,模型开始利用外部知识、工作记忆与长链推理过程,任务求解能力随之提升。到了 Agent 阶段,系统已经能够进入环境,接收反馈,调用工具,并在多步执行中调整策略。继续向上看,Innovator 对应主动的策略构造与深入的自我修正,Organizer 则进一步指向跨任务与跨环境的组织能力。
这条演化线索最值得关注的地方,在于它揭示了能力升级的真正驱动力。随着系统持续演进,变化最深的一层,是它对情境的处理深度。情境的来源不断扩展,反馈回路持续缩短,状态更新也更加连贯,系统于是逐步接近真正意义上的 Agent。
四、情境认知视角的 Agent
这也是我们这篇 Survey 提出的核心视角,Contextual Cognition,也就是情境认知。
在这个视角下,Agent 的能力上限,取决于它如何组织和更新情境。论文把情境写成一个动态整合体,它由内部状态与外部观察共同构成,也就是C_t = I_t ⊕ O_t。
情境认知示意图
图 4:情境由内部状态与外部观察共同构成,并在任务推进中持续更新。
这里的内部状态,承载着工作记忆、子目标、过程记录与反思信号。这里的外部观察,来自用户指令、工具回传、环境变化、执行日志与界面反馈。当这两部分在时间线上持续对齐,Agent 才能形成真正可用的情境。
这一视角带来了一种很有解释力的理解方式。它让我们看到,Agent 的智能,来自系统在环境中维持情境连续性的能力,也来自信息沉淀、状态形成与行动推进之间的紧密衔接。
五、四环闭环,Agent 如何真正跑起来
沿着情境认知视角继续展开,论文给出了一个统一框架,其中包含 contextual encoding、contextual perception、contextual interaction、contextual reasoning 四个环节。
四环核心框架图
图 5:编码、感知、交互、推理共同构成 Agent 的情境认知闭环。
其中,contextual encoding 负责整理文本、结构化信息、向量记忆与事件记录,让系统先拥有可用的情境表示。进入 contextual perception 之后,环境里的关键状态变化会被识别出来,原始信号也会被转化成可理解的语义内容。随后,contextual interaction 让 Agent 与人、工具、环境、其他 Agent 建立有效往来,让反馈真正流入系统。到了 contextual reasoning,这些情境信息才会被用于任务评估、路径规划与动作选择,并在合适时机完成修正。
当这四个环节形成连续闭环,Agent 才拥有稳定的任务推进能力。这个框架也让许多现象变得直观。成功的工具调用,连接着观察、更新与判断。长链任务的顺畅完成,则依赖编码、交互与推理在同一条轨迹上彼此支撑。
六、代表性 Agent,今天的系统已经走到哪里
理论落到真实系统里,Agent 的轮廓也会清晰起来。
代表性 Agent 拼图
图 6:OpenClaw 展示了情境认知如何在真实助手系统中落地。
在各种 Agent 系统里,OpenClaw 是一个很适合展开讲解的代表案例。它接近个人智能助手的原型,也很完整地体现了情境认知视角中的关键要素。
OpenClaw 面对的任务环境,本身就带有很强的动态性。多轮消息、用户偏好、技能插件、任务上下文与执行记录,会持续流入系统,并共同构成情境基础。Agent 若想把任务稳定推进下去,就需要把这些分散信号组织成可追踪、可调用、可更新的内部状态。
这正是 OpenClaw 的价值所在。它并非停留在一次性响应,而是围绕消息通道、用户目标、可用技能与执行反馈,持续完成情境编码、状态感知、工具交互与任务推理。随着任务展开,系统会把新反馈纳入当前情境,再据此调整下一步动作。于是,一个真实可用的个人助手形态就逐渐清晰起来。
放在这篇 Survey 的理论框架里看,OpenClaw 的意义非常鲜明。它让“情境认知”从抽象概念落到真实系统,也让“资源约束下的序贯决策与搜索优化”有了直观载体。读者看到 OpenClaw,就能迅速理解,Agent 的核心竞争力来自情境组织能力,也来自环境闭环中的持续行动能力。
七、从应用走向方法,这篇 Survey 想提供什么
今天的 Agent 已经深入 deep research、coding、GUI、science 等关键场景。系统开始承担完整工作流,研究问题也随之升级。大家关心的焦点,也逐渐落在情境建立、闭环维持与任务成功率提升这些关键问题上。
应用场景总结图
图 7:Agent 正在走入 deep research、coding、GUI、science 等关键应用场景。
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋
📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
