背景:智能体热潮下的结构性缺失

近年来,随着大语言模型(Large Language Models, LLMs)能力的快速演进,“智能体”(Agentic AI)成为人工智能领域最受关注的方向之一。人们希望构建能够自主感知、持续推理、调用工具并完成复杂任务的AI系统。从自动安排行程到跨系统协作生成报告,Agentic AI展现出前所未有的灵活性。

然而,这类系统也暴露出严重隐患:行为不可预测、缺乏真实世界常识、难以验证其决策逻辑、在多智能体环境中极易产生误解或冲突。更关键的是,当前系统往往是“孤岛式”的个体,缺乏对他人目标、社会规范或制度规则的理解,难以真正融入人类社会的协作体系。

面对这些问题,瑞典于默奥大学(Umeå University)的研究者 Virginia Dignum 与 Frank Dignum 在论文《Agentifying Agentic AI》中提出了一个深刻而务实的方案:将几十年来在“自主智能体与多智能体系统”(Autonomous Agents and Multi-Agent Systems, AAMAS)领域积累的理论成果,系统性地融入当前以LLM为核心的Agentic AI架构中。

核心问题:当前Agentic AI“有行为,无 agency”

论文指出,尽管当前的Agentic AI具备一定的“行为自主性”,但缺乏真正意义上的“agency”——即在社会环境中负责任、可解释、可协作、可问责的行动能力。

作者强调,真正的 agency 并非孤立个体的“智能涌现”,而是在与他人(包括人类与其他AI)互动中形成的。当前系统过度依赖LLM的统计泛化能力,导致以下结构性缺陷:

  • 不可验证:无法保证输入与输出之间的逻辑一致性;
  • 目标易漂移:容易被提示词干扰,偏离原始任务;
  • 缺乏社会认知:无视角色、规范、制度等人类协作基础;
  • 协作机制脆弱:多智能体间沟通靠自然语言“猜意图”,而非结构化协议。

这些问题若不解决,Agentic AI将难以在医疗、金融、政务等高风险领域落地,甚至可能因“看似聪明实则失控”而引发信任危机。

解法之道:唤醒AAMAS的沉睡智慧

论文的核心在于系统性地梳理了AAMAS领域数十年积累的理论工具,并论证它们如何弥补当前Agentic AI的结构性缺陷。这部分内容占全文80%以上,也是本文解读的重点。

  1. 显式认知架构:从“黑箱推理”到“可解释意图”

传统智能体常采用BDI架构(Belief-Desire-Intention,信念-欲望-意图),将内部状态显式建模:

  • 信念(Belief):对世界的认知状态;
  • 欲望(Desire):希望达成的目标;
  • 意图(Intention):已承诺执行的计划。

这种结构使得系统行为可追溯、可干预。例如,若订票失败,系统可明确判断是“目标不可达”(如无航班)还是“执行失败”,并据此放弃或调整目标,而非盲目尝试不合理方案(如经罗马转机去巴黎)。

  1. 结构化通信协议:告别“猜谜式对话”

当前Agentic AI依赖LLM进行自然语言交互,但自然语言缺乏形式语义(formal semantics)。例如,一个代理询问“对方何时到达”,可能无意中暴露了用户想回避某人的意图,造成社交尴尬。

AAMAS早年提出的KQML、FIPA-ACL等通信语言,定义了“请求”“承诺”“通知”等行为的明确语义。通过这类协议,智能体可精确表达“我只需知道时间,无需你去询问”,从而避免信息泄露与误解。

  1. 机制设计与激励对齐:让自私智能体合作

在物流、能源调度等场景,每个智能体代表不同利益方(如卡车公司、电力供应商)。AAMAS通过机制设计(Mechanism Design)构建激励相容的规则,例如拍卖机制让运输成本最低的卡车自动中标。

这种“设计环境而非改造智能体”的思路,可有效避免Agentic AI因目标冲突而内耗,确保集体效率。

  1. 多智能体规划与协调:同步、依赖与回滚

当多个智能体协同完成任务(如一人订机票、一人订酒店),必须共享计划、感知依赖、处理变更。AAMAS的联合意图理论(Joint Intention)和分布式规划框架,使系统能在航班变更时自动协调酒店续住,并向用户说明原因、请求确认。

相比之下,当前Agentic AI的协作多为“浅层对话”,缺乏对任务依赖的结构化建模,极易导致计划断裂。

  1. 规范、制度与角色:嵌入社会规则

人类社会靠“规范”(norms)维持秩序:秘书可为会议买咖啡,但不能送咖啡到老板家中。这些边界并非绝对规则,而是在角色(role)和情境(context)中动态解释。

AAMAS研究了电子制度(Electronic Institutions)、组织模型(如OperA)等,使智能体能理解“在什么角色下做什么事是恰当的”。论文指出,LLM虽能模仿表面行为,却无法掌握规范背后的价值结构,尤其在跨文化场景中极易出错。

  1. 信任与声誉:长期合作的基础

在开放环境中,智能体需评估合作方的可靠性。AAMAS建立了计算信任模型,基于历史交互动态更新声誉。例如,低价机票代理若常有隐藏费用,其声誉值将下降,后续任务中会被规避。

当前Agentic AI多为“一次性交互”,缺乏记忆与评估机制,易被恶意服务利用。

  1. 理论心智(Theory of Mind)

真正智能的协作需要理解他人“知道什么、想要什么”。AAMAS通过显式建模他人信念与目标,使智能体能预测行为、解释异常。例如,医生在诊室中默认讨论病情,而非天气——这种情境心智是高效协作的前提。

LLM虽能“表演”共情,但缺乏对心智状态的结构化表示,无法进行深层推理。

对AI行业的深远影响

这篇论文不仅是一次学术反思,更是一份行业路线图。它揭示了一个关键事实:下一代可信AI不能仅靠更大模型和更多数据,而必须引入结构化、可验证、社会化的智能框架。

对行业而言,这意味着:

  • 工程范式转变:从“Prompt Engineering”转向“Agent Architecture Design”,需融合BDI、通信协议、规范引擎等模块;
  • 评估标准升级:未来Agentic AI的评测不应只看任务完成率,还需考察其协作能力、规范遵守、错误恢复等社会性指标;
  • 治理框架前置:欧盟AI法案、NIST风险管理框架等已要求高风险AI具备可解释性与问责机制,AAMAS提供的形式化工具恰可满足此需求;
  • 开源生态机会:社区可构建“Agentic AI中间件”,如标准化通信层、轻量级BDI推理引擎、规范解释器等,降低结构化智能体的开发门槛。

更重要的是,该论文呼吁打破“单智能体神话”。未来的智能体系统将是生态化的——由多种专业化智能体在制度约束下协同工作,而非一个全能但不可控的“黑箱大脑”。

结语:走向负责任的智能体时代

《Agentifying Agentic AI》没有否定LLM的价值,而是主张以结构化框架“驯化”其灵活性:让LLM负责“执行细节”(如生成邮件、解析网页),而将“目标管理”“协作协调”“规范判断”交给可验证的智能体架构。

这种“混合智能”路径,既保留了数据驱动的适应性,又重建了逻辑清晰、社会嵌入的agency。在AI日益深入现实世界的今天,这或许是通往安全、可靠、可信赖的智能体系统的必经之路。

对开发者而言,现在正是重新学习AAMAS经典理论、探索新架构融合的最佳时机。毕竟,真正的智能,从不孤立存在。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐