所有文章 > AI驱动 > 深度长文 | 康奈尔最新论文:你真的了解AI Agent吗?
深度长文 | 康奈尔最新论文:你真的了解AI Agent吗?

深度长文 | 康奈尔最新论文:你真的了解AI Agent吗?

最近读了不少跟AI Agent相关的文章,也陆续翻译了一些与Agent相关的材料,但在翻译的时候,我发现对于 AI Agent 和Agentic AI System 这两个概念究竟有什么区别,好像业界并没有一个统一的定义,翻译时到底什么时候用中文“AI代理”什么时候用“智能体”也不确定,直到这周我读了这篇在 arxiv 上刚发布不久的论文-《AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges》,才有种豁然开朗的感觉。

这篇综述性论文的主要作者Ranjan Sapkota 和 Manoj Karkee来自美国康奈尔大学(Cornell University)的生物与环境工程系(Department of Biological and Environmental Engineering),论文旨在严格区分“AI Agents”与“Agentic AI”这两个在后 ChatGPT 时代日益受到关注的概念。其主旨是提供一个结构化的概念分类法、应用场景映射和挑战分析,以厘清两者在设计理念和能力上的差异,它希望解决的问题是当前领域内对于 AI Agents 和 Agentic AI 的概念混淆,缺乏清晰的定义、界限和发展路线图,可能导致研发方向的模糊和评估标准的错位。

在深入阅读这篇论文之后,我从两者的概念定义、应用场景、核心挑战、解决方案以及未来发展方向等多个维度的对比分析做了些记录,对这两者有了一个比较清晰的认识。如果恰好你也对这两者感兴趣,以下是我读这篇论文的笔记。

一、论文概述

这篇论文的核心思路在于系统性地解构和对比“AI Agents”与“Agentic AI”这两个新兴范式,阐明它们从生成式AI演进的路径、各自的架构特征、核心机制、应用领域及面临的挑战与未来方向,论文的核心贡献在于:

  1. 明确将 AI Agents 定义为由 LLM 和 LIM 驱动、用于狭窄和特定任务自动化的模块化系统,并将生成式 AI 视为其前身。
  2. 将 Agentic AI 系统描绘为一种范式转变,强调其多AI代理协作、动态任务分解、持久化记忆和精心编排的自主性
  3. 通过对架构演进、操作机制、交互方式和自主程度的序列化评估,对两种范式进行了比较分析。
  4. 不仅对比了各自的应用领域(如 AI Agents 用于客服、调度;Agentic AI 用于科研自动化、机器人协调),还深入探讨了各自面临的独特挑战(如幻觉、脆弱性、涌现行为、协调失败),并提出了如 ReAct 循环、RAG、编排层和因果建模等针对性解决方案。

论文的20个关键概念

  1. 核心区分:论文严格区分AI Agents(模块化、任务特定自动化)和Agentic AI(多智能体协作、动态任务分解、持久化记忆、编排自主)。
  2. 生成式AI是前体:生成式AI(如独立LLMs)被视为AI Agents的前身,主要关注内容生成,缺乏主动的任务执行和工具使用能力。
  3. AI Agents的驱动力:AI Agents由LLMs和LIMs驱动,通过工具集成、提示工程和推理增强来执行任务。
  4. AI Agents的特征:AI Agents通常是单实体系统,执行目标导向的任务,能调用外部工具,应用顺序推理,并整合实时信息。
  5. Agentic AI的范式转变:Agentic AI代表了从单体智能向多智能体协作的范式转变,具有更高的自主性和复杂性。
  6. Agentic AI的核心要素:Agentic AI系统由多个专业化智能体构成,它们进行协调、沟通,并在更广泛的工作流中动态分配子任务。
  7. 架构演进:从AI Agents的感知-推理-行动循环,演进到Agentic AI中包含专业化智能体、高级规划、持久化记忆和编排层。
  8. 持久化记忆的重要性Agentic AI强调持久化记忆(情景、语义、向量),以支持跨任务周期和智能体间的知识共享与学习。
  9. 编排层/元智能体的作用:在Agentic AI中,编排层或元智能体负责协调子智能体的生命周期、管理依赖、分配角色和解决冲突。
  10. 目标分解是关键:Agentic AI的一个关键能力是将用户指定的高级目标自动解析并分解为可管理的小任务,分配给不同智能体。
  11. 工具使用是AI Agents的扩展:工具增强(如函数调用)是AI Agents克服LLM固有局限(如静态知识、无法与外部世界交互)的关键。
  12. ReAct框架:ReAct(Reason+Act)框架结合了LLM的推理和行动(工具使用),是AI Agents实现更复杂任务的重要模式。
  13. AI Agents的应用:AI Agents适用于客户支持、邮件过滤、个性化推荐、自主调度等定义明确的任务
  14. Agentic AI的应用:Agentic AI适用于需要协作的复杂场景,如多智能体科研助手、智能机器人协调、协作式医疗决策支持、自适应工作流自动化。
  15. AI Agents的挑战:AI Agents面临幻觉、提示脆弱性、缺乏因果理解、长时规划能力有限等挑战。
  16. Agentic AI的挑战:Agentic AI面临的挑战包括智能体间错误级联、协调瓶颈、不可预测的涌现行为、可扩展性差、可解释性差、安全和治理问题。
  17. RAG的作用:检索增强生成(RAG)是解决AI Agents幻觉、扩展知识库,并在Agentic AI中提供共享事实基础的重要方案。
  18. 因果建模的必要性:论文强调因果建模对于提升AI Agents和Agentic AI在动态、不确定环境中鲁棒性和泛化能力的重要性
  19. 治理框架的紧迫性:对于Agentic AI,建立包含问责制、角色隔离、伦理对齐的治理框架至关重要。
  20. 未来路线图:论文提出未来AI Agents将向更主动的智能、更强的工具集成、因果推理和持续学习发展;Agentic AI将侧重于多智能体扩展、统一编排、持久化记忆、模拟规划和伦理治理

如果你只想对 AI Agent 有个大致了解,那么读到这儿再加上面这幅用windsurf生成的网页总结图,应该就能有个初步认识了。不想花太多时间阅读下面文字的朋友建议往上翻,听上面论文概述前的音频解读,感兴趣的朋友可以继续往下看。

二、核心概念与定义

论文首先将AI Agents定位为基于大型语言模型(LLM)和大型图像模型(LIM),通过工具集成(如API调用、函数调用)、提示工程和增强的推理能力,实现特定、狭窄任务自动化的系统。它们是生成式AI(作为前体,主要负责内容生成)在任务执行能力上的延伸,强调单体智能体的自主性对外部工具的调用以完成明确定义的功能。我们可以把AI Agents想象成 “单个的、能使用工具的智能助手”,它们有 “感知”(接收信息)、“思考”(处理信息)和“行动”(执行任务) 这些核心能力,擅长处理特定、界限清晰的任务。

与此相对,Agentic AI被描绘为一个更高级、更复杂的范式转变。它代表了由多个专业化AI代理组成的协作系统,这些AI代理能够共同分解复杂目标、动态分配子任务、通过共享记忆(如持久化记忆、情景记忆)进行通信和协调,并由编排层(或元智能体)进行管理,以实现更宏大的、开放式的目标。Agentic AI 强调的是系统级的、涌现的智能,以及在动态环境中的适应性和鲁棒性。 它更像是一个由多个具备专长、能互相协作的智能助手组成的“团队”,它们可以一起解决更复杂、更大范围的问题。

论文中的智能家居示意图

为了帮助读者更好地理解AI Agents和Agentic AI的区别,论文中通过智能家居系统类比的方式,形象地对比了 AI Agent 和 Agentic AI 的概念区别。左侧展示了一个传统的 AI Agent(智能恒温器),它执行一个独立的、特定任务。右侧展示了一个 Agentic AI 系统(综合智能家居生态系统),其中多个专业化智能体协同工作,共同实现更复杂的、高层次的目标。这张图体现了从任务特定的自动化到自适应、协调智能的架构和功能上的飞跃。

对于已经接触过Agent产品的朋友来说,判断一个系统是AI Agents 还是 Agentic AI,可以通过以下几个关键问题来判断:

  1. 系统是单个AI代理在工作,还是多个AI代理在协作?

AI Agents: 通常是单个AI代理(或表现为单个实体)执行任务,即使它内部可能调用了多个工具或模块。

Agentic AI: 核心特征是多个、专业化的AI代理协同工作,它们之间有明确的通信、协调和任务分配。

  1. 系统是否存在一个明确的“编排层”或“元智能体”来管理其他AI代理?

AI Agents: 一般不涉及复杂的编排,任务流相对直接。

Agentic AI: 通常会有一个编排层 (Orchestration Layer) 或元智能体 (Meta-Agent) 来协调不同AI代理的活动、分配任务、管理依赖。

  1. 任务的复杂性和目标是如何定义的?

AI Agents: 倾向于处理定义明确、范围较窄的自动化任务。

Agentic AI: 旨在解决复杂、高层次、甚至可能是开放式的目标,通常需要将大目标动态分解为子任务。

  1. 系统是否强调“持久化记忆”和“共享上下文”供多个组件/AI代理使用?

AI Agents: 可能有会话内记忆或工具缓存,但一般不强调跨多个任务周期或多个独立实体的持久化、共享记忆。

Agentic AI: 持久化记忆(如情景、语义、向量记忆)和共享上下文是关键组成部分,以支持AI代理间的协作和长期学习。

  1. “协作”、“通信”、“动态任务分配”是系统的核心机制吗?
  • AI Agents: 核心机制更多是LLM的推理能力、工具调用能力、顺序执行能力。
  • Agentic AI: 协作、通信、动态任务分配、角色专业化是其运作的核心机制。

而对于没有实际接触过 Agent 的朋友来说,可能理解起来还是会有些困难。没关系,我们继续往下看,论文中结合日常生活工作中我们熟悉的例子,对 AI Agents 和 Agentic AI 的概念进行了一些说明。

扩展思考:按照以上概念定义,Dify 和 Manus 是 AI Agents 还是 Agentic AI?请在评论区分享你的看法。

三、AI Agents 和 Agentic AI 的典型应用场景

论文的第四章节中,作者将AI Agents和Agentic AI的应用分成了八个核心应用领域:

论文中的应用场景图

AI代理 (AI Agents)的四个应用领域

  1. 客户支持自动化和企业内部搜索 (Automation for Customer Support & Internal Enterprise Search):简单来说,它就像一个非常聪明的自动化客服或公司内部的“活字典”。在客户服务方面,它们能理解客户的问题(比如“我的订单到哪儿了?”或者“怎么退货?”),然后连接到公司的系统(比如订单数据库),自动找到答案并回复客户。它们甚至能帮你发起退货流程。
    在公司内部,你可以用自然语言(就像平时说话一样)问它们问题(比如“上次会议的关键决定是什么?”或者“去年的销售报告在哪里?”),它们能快速搜索并提供相关文档或总结。
  2. 电子邮件过滤和优先级划分 (Email Filtering and Prioritization):简单来说,它就像一个非常高效的智能邮件助理。
    它们能自动帮你整理收件箱里的大量邮件。通过分析邮件的内容、发件人等信息,它们可以判断邮件的紧急程度,帮你自动打上标签(比如“重要”、“待办”、“低优先级”),或者提炼出邮件里的关键任务。
  3. 个性化内容推荐、基本数据分析和报告 (Personalized Content Recommendation, Basic Data Analysis and Reporting):简单来说,它们是你的专属“猜你喜欢”专家和简单的“数据分析师”。
    在像亚马逊、YouTube、Spotify 这样的平台,它们会学习你的浏览、点击、购买、收听习惯,然后给你推荐你可能感兴趣的商品、视频或音乐。
    在商业分析工具中,你可以用简单的话(比如“告诉我上季度哪个地区的销售额最高”)向它们提问,它们能自动把你的问题转换成查询,然后生成报告或图表给你看。
  4. 自主日程安排助手 (Autonomous Scheduling Assistants):简单来说,它们是能自己帮你安排会议的智能秘书。
    它们可以连接到你的日历,理解你模糊的指令(比如“下周找个时间跟李总开个短会”)。它们会自动查看所有相关人员的日历,找到大家都有空的时间,避开冲突,然后帮你发出会议邀请。它们还能学习你的偏好,比如你不喜欢在周五下午开会。

智能体 AI(Agentic AI)的四个应用领域

  1. 多智能体研究助手 (Multi-Agent Research Assistants):简单来说,它们就像一个由多个AI专家组成的“研究团队”。
    当你要做一个复杂的研究项目或撰写一份详细报告时,这个系统会派出不同的AI智能体:一个可能去互联网或数据库里搜索所有相关的文献,另一个阅读并总结这些文献的要点,还有一个可能负责把信息整合起来,帮你起草报告或论文的某个部分。它们之间会互相交流和协作。
  2. 智能机器人协调 (Intelligent Robotics Coordination):简单来说,它就像一个能指挥一群不同机器人协同工作的“总指挥”。
    在工厂、仓库或农场等地方,可能需要很多不同类型的机器人一起完成任务。比如,在智能仓库里,有的机器人负责拣货,有的负责运输,有的负责清点库存。Agentic AI系统能协调这些机器人,动态分配任务,优化它们的工作流程,让它们像一个有机的整体一样高效运作。
  3. 协作医疗决策支持 (Collaborative Medical Decision Support):简单来说,它们就像一个由多个AI医疗专家组成的“临床会诊团队”。
    在医院,特别是情况复杂的重症监护室(ICU),Agentic AI系统可以整合不同AI智能体的分析结果:一个智能体可能分析病人的生命体征和各种检测数据,寻找早期预警信号;另一个可能快速查询病人的所有病史、用药史等;还有一个可能根据最新的医学指南,结合当前病情,提出诊断或治疗的建议方案。这些智能体互相验证、补充信息,帮助医生做出更准确、更安全的临床决策。
  4. 多智能体博弈AI和自适应工作流程自动化 (Multi-Agent Game AI & Adaptive Workflow Automation):简单来说,这类系统既能创造出行为更复杂、更智能、能互相影响的游戏角色,也能用来处理企业里那些非常复杂、需要多种专业判断、能根据情况灵活调整的工作流程。
    在游戏里,它们让非玩家角色(NPC)的行为更自然、更有故事性,能根据玩家的行动动态调整自己的策略。在企业里,比如处理一个复杂的法律案件,或者应对一个突发的网络安全威胁,Agentic AI系统可以调动不同的AI智能体:一个智能体分析法律文件,另一个智能体查询相关法规;或者一个智能体识别网络攻击类型,另一个智能体评估影响范围,还有一个模拟应对措施。它们协同工作,自动完成大部分分析和初步决策,并且能根据情况变化动态调整应对策略。

当然,随着AI技术的不断发展,AI Agents和Agentic AI的应用范围及它们所能发挥的作用也会不断扩大。

四、从 AI Agents 向 Agentic AI 的演进

AI Agents 的架构演进

前面我们提到过,AI Agents 善于处理定义明确、范围较窄的自动化任务,而 Agentic AI 则擅长解决复杂、高层次、甚至可能是开放式的目标,通常需要将大目标动态分解为子任务,从前者向后者的演进过程中,架构的变化是非常明显的。

论文中的架构演进图

具体来说,这种演进体现在以下几个关键方面:

  1. 从单体到团队架构: 传统的 AI Agents 通常是单一实体系统,专注于执行特定任务。而 Agentic AI 系统由多个、专业化的AI代理组成一个协同工作的“团队”。
  2. 引入“总指挥”(Orchestration): Agentic AI 系统增加了一个或多层协调层或“总指挥”智能体。这个“总指挥”负责分配任务、管理依赖关系以及协调团队中各个AI代理的活动,而这是传统 AI Agents 所没有的。
  3. 增强的规划与记忆能力: Agentic AI 引入了更高级的推理和规划机制,使其能够将复杂的整体目标分解为更小、可管理的子任务,并动态调整计划。同时,它们具备持久的记忆架构(包括情景记忆、语义记忆等),使得AI代理能够在跨任务或跨会话时保留上下文和知识,实现更长时间内的连贯性。传统 AI Agents 的记忆和规划能力相对有限,或仅限于特定任务内部。
  4. 强调协作与共享: 在 Agentic AI 中,AI代理之间可以相互沟通、共享信息和工作成果,共同推动任务进展。这种多智能体协作是 Agentic AI 区别于独立 AI Agents 的核心特征。相信 Google 正是看到了这种多智能体协作的潜力,才提出了 A2A 协议。

上图所展示的论文演进图就是这种架构演进的直观体现。它展示了从传统 AI Agents 的感知、推理、行动核心模块,扩展到 Agentic AI 中包含专业化AI代理、高级推理与规划、持久记忆和协调层等更复杂的组件。这些新组件共同促成了多AI代理协作、任务分解、共享上下文和系统协调等新兴能力。

AI Agents 和 Agentic AI 的主要挑战

(a)展示了AI Agents的局限性,如因果缺陷、浅层推理等,而(b)则强调了 Agentic AI 系统中被放大的协调和稳定性挑战。

对于传统 AI Agents,主要的挑战包括:
. 继承自大型语言模型的局限性:例如,它们容易产生**“幻觉”**(生成看似合理但不准确的信息),对提示词非常敏感,推理能力可能比较浅显,计算成本和延迟较高,知识更新不及时,还可能存在数据带来的偏见。
. 缺乏因果理解能力:AI Agents 主要依靠统计关联,难以理解真正的因果关系,这导致它们在面对与训练数据不同的情况时表现不稳定。
. 有限的长远规划和恢复能力:它们在执行复杂、多步骤任务时表现不佳,难以进行鲁棒的长远规划,当子任务失败或结果不明确时,缺乏有效的恢复机制。
. 不完整的智能体属性:虽然被称为“智能体”,但它们在自主性、主动性、反应性和社交能力等方面往往不完善,通常仍依赖外部指导才能有效运作。

对于Agentic AI系统,由于涉及多个AI代理的协作,其挑战往往是传统AI Agents问题的放大,并引入了新的复杂性:
. 因果问题被放大:单个AI代理的因果理解不足会导致整个系统中出现AI代理间的级联错误,一个AI代理的错误输出可能会污染后续所有AI代理的决策。
. 通信和协调瓶颈:AI代理团队需要精确的协调、同步执行和强大的通信协议,但目前的实现在这方面存在不足,如目标理解不一致、通信协议不规范、资源竞争等问题。
. 涌现行为和不可预测性:多个AI代理的交互可能产生系统层面的复杂“涌现行为”,这些行为难以预测和控制,可能导致意外结果甚至安全风险。
. 扩展性和调试复杂性高:随着AI代理数量和角色多样性的增加,Agentic AI 系统的可靠性和可解释性变得非常复杂。AI代理之间的黑箱推理链和异步交互使得追踪错误根源异常困难。

关键解决方案及未来展望

论文中的解决方案图

针对以上的挑战,论文中提出了以下解决方案:

  1. 检索增强生成 (RAG): 通过从外部数据源检索相关信息来增强 LLM 输出,减少幻觉,扩展知识,为代理提供实时、可靠的信息。在Agentic AI中,RAG 可作为共享基础机制,帮助代理保持共享真相,增强目标一致性,减少代理间信息传播不一致。
  2. 工具增强推理 (函数调用): 使代理能够与外部系统(API、数据库、脚本)交互,将 LLMs 从静态预测器转变为交互式问题解决者。在Agentic AI中,函数调用支持代理层面的自主性和角色分化,使代理能够执行领域特定操作,增强协调管道的流畅性。
  3. 代理循环: 推理、行动、观察 (ReAct): 引入迭代循环,代理推理任务、调用工具行动、观察结果,然后继续。这使得代理行为更深思熟虑、上下文敏感。在 Agentic AI 中,ReAct对协作一致性至关重要,代理可动态评估依赖关系,适应环境变化
  4. 记忆架构 (情景记忆、语义记忆、向量记忆): 通过持久化信息来解决长期规划和会话连续性问题。情景记忆记录行动和反馈,语义记忆编码领域知识,向量记忆支持相似性检索。Agentic AI需要更复杂的记忆模型来管理分布式状态和跨代理共享知识,支持长期系统级规划
  5. 多代理编排与角色专业化: 将复杂任务分解为子组件并分配给专业化代理,通过元代理或编排器协调这些代理的生命周期、管理依赖、分配角色、解决冲突。这增强了可解释性、可伸缩性和故障隔离。
  6. 反射和自我批评机制: 使代理能够对自己的输出进行自我评估或互相评估。ReFlexion 等机制提高了鲁棒性,减少了错误率,支持迭代改进和自适应再规划。
  7. 程序化提示工程管道: 自动化提示生成过程,使用任务模板、上下文填充器和检索增强变量,提高泛化能力,减少提示变异导致的失败模式。在 Agentic AI 中,这有助于实现可伸缩、角色一致的通信,自动化消息格式化和依赖跟踪。
  8. 因果建模和基于模拟的规划: 将因果推理嵌入代理中,使其能够区分相关性和因果关系,模拟干预,进行更鲁棒的规划。在 Agentic AI 中,因果推理对于安全协调和错误恢复至关重要,代理需预测其行动对其他代理的影响。结构化规划方法(如 STRIPS, PDDL)可用于治理合作行为
  9. 监控、审计和可解释性管道: 记录代理行为(提示、工具调用、记忆更新、输出)以进行事后分析、性能调优、追踪故障。在Agentic AI中,跨代理的审计跟踪对于识别错误源和条件至关重要
  10. 治理感知架构 (问责制和角色隔离): 引入基于角色的访问控制、沙箱、身份解析等机制,确保代理行为符合范围,决策可审计、可撤销。这减少了高风险应用中的风险。在 Agentic AI 中,治理需跨角色、代理、工作流进行,确保安全、可信的协作环境。

此外,论文还提出了一个变革性的方向,对AI Agents和Agentic AI都有影响。Absolute Zero: Reinforced Self-play Reasoning with Zero Data (AZR) 框架,这是一个通过强化自我博弈推理(Reinforced Self-play Reasoning)实现“零数据(Zero Data)”学习的范式。该框架使AI代理能够自主生成、验证和解决自己的任务,通过可验证的反馈机制(例如代码执行)来巩固学习。这为Agentic AI 系统中的AI代理实现共同进化、知识细化和任务灵活性奠定了基础。关于AZR框架的详细介绍,我在arxiv.org上找到了一篇论文,感兴趣的朋友可以通过文后链接去找来读读。

五、最后唠叨两句

所以啊,今天跟大家‘叨叨’了这么多,其实就是想把这两个概念掰扯清楚。现在回过头看,AI Agent就像个能干的‘单兵尖兵’,而Agentic AI则更像一支配合默契的‘特种部队’。从‘单兵’到‘部队’,这条路肯定不好走,坑也不少,但想想未来那些聪明绝顶的AI系统能帮我们搞定那么多复杂的事儿,还是挺让人激动的,不是吗?不知道大家看完有啥想法,欢迎一起聊聊!

以上是我今天分享的内容,如果你觉得内容还算有用,或对你有一定帮助,欢迎留言或将本文转发给你身边的朋友。

引用链接

[1] 《AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges》: https://arxiv.org/pdf/2505.10468
[2] 一篇论文: https://arxiv.org/abs/2505.03335

文章转载自:深度长文 | 康奈尔最新论文:你真的了解AI Agent吗?

#你可能也喜欢这些API文章!

我们有何不同?

API服务商零注册

多API并行试用

数据驱动选型,提升决策效率

查看全部API→
🔥

热门场景实测,选对API

#AI文本生成大模型API

对比大模型API的内容创意新颖性、情感共鸣力、商业转化潜力

25个渠道
一键对比试用API 限时免费

#AI深度推理大模型API

对比大模型API的逻辑推理准确性、分析深度、可视化建议合理性

10个渠道
一键对比试用API 限时免费