胡博涛 ‘安柏’, 现实设计实验室, 美国
刘宇涵, 普林斯顿大学, 美国
荣海伦*, 上海纽约大学, 中国

最近,自主权去中心化AI代理(DeAgents)的趋势结合了基于大型语言模型(LLM)的AI代理与去中心化技术,如区块链智能合约和可信执行环境(TEEs)。这些防篡改的信任基础使代理能够通过拥有加密钱包私钥以及控制数字资产和社会媒体账户来实现自主权。DeAgent消除了集中控制并减少了人为干预,解决了集中式AI系统中固有的关键信任问题。然而,鉴于LLM可靠性中的持续挑战,例如幻觉现象,这在无信任性和不可靠自主性之间产生了矛盾张力。本研究通过采访DeAgents利益相关者——专家、创始人和开发者——来探讨他们的动机、益处和治理困境,以填补这一实证研究空白。研究结果将指导未来DeAgents系统和协议设计,并为未来代理网络中社会技术AI系统的治理讨论提供依据。

CCS概念: ∙ \bullet 以人为中心的计算 → \rightarrow 协作和社会计算理论、概念和范式。
附加关键词和短语:无信任自主性、治理、AI代理、自主权、可信执行环境、区块链、协议设计、去中心化AI、大语言模型、Web3、社会技术AI系统、代理网络

ACM参考格式:

胡博涛 ‘安柏’、刘宇涵 和 荣海伦。2025。无信任自主性:理解自主权去中心化AI代理的动机、益处和治理困境。1, 1(2025年5月),20页。https://doi.org/10.1145/nnnnnnn. nnnnnnn

1 引言

最近,AI代理与去中心化技术的集成——使代理超越单纯的自主性而实现自主权——已成为一种新兴现象。这种趋势最常被称为去中心化AI代理(DeAgents),指的是基于大语言模型(LLM)的AI代理[84]部署在无需信任(trustless)[36](无需信任第三方)、防篡改的计算基础上,包括区块链智能合约[10]、去中心化物理基础设施(DePIN)[5]和可信执行环境(TEEs)[76]。自主权意味着一旦启动,代理就持有自己的加密私钥并做出自主决策,无需人为干预。这些代理可以管理自己的加密货币钱包、转移数字资产、与去中心化金融(DeFi)协议互动、发行代币进行融资,并维护社交媒体账户以建立影响力并通过叙事和财务手段激励追随者。

作者地址:胡博涛 ‘安柏’,现实设计实验室,美国纽约市,amber@reality.design;刘宇涵,普林斯顿大学,新泽西州普林斯顿,yuhanl@princeton.edu;荣海伦,上海纽约大学,中国上海,hr2703@nyu.edu.

1
*通讯作者

尽管存在内在的矛盾治理紧张关系,现实情况是,迄今为止已有数千个DeAgents被部署用于各种目的 [2]。随着这一趋势的持续发展,对社会和金融产生重大影响,关于利益相关者为何更倾向于DeAgents而非传统AI代理的经验研究仍存在显著差距。为解决这一差距,我们通过半结构化访谈对DeAgents利益相关者进行了定性研究,以了解为什么开发者、创始人和专家拥抱DeAgents——探索他们的动机、期望和所感知的益处,同时检查他们面临的实际挑战和治理困境。具体而言,我们考察了:

  • RQ1(动机和期望):是什么促使开发者和社区部署DeAgents,他们的期望是什么?

    • RQ2(挑战和治理影响):在现实世界中部署DeAgents时会出现哪些挑战,利益相关者如何在无需信任的自主系统中导航治理、监督和问责?
      基于主题分析,我们的研究发现揭示了利益相关者的视角光谱——从热情的支持者认为DeAgents是自主性和审查抵制的突破,到谨慎采用者和批评者关注不可预测行为和问责空缺。我们揭示了在追求将AI自主性与无需信任基础设施融合过程中出现的矛盾紧张关系。我们的贡献有三方面:
  • 我们展示了经验发现,表明推动在无需信任底座上部署自主权AI代理是由社会技术/政治因素驱动的 [30],如去中心化、隐私关注、审查抵制和社区所有权——即使AI可靠性问题仍未解决。

    • 我们识别出了当潜在不可靠的AI代理在无需信任基础设施中运行时出现的矛盾治理困境,揭示了在委托机构给自主系统时信任人类与信任AI之间的复杂紧张关系。
    • 我们提出了设计和治理影响,强调了为代理网络信任进行深思熟虑的协议设计,灵活的故障保护作为无需信任和真正值得信赖之间的必要桥梁。

2 背景及相关工作

2.1 本文术语

本文讨论了去中心化AI,涉及的技术术语可能在不同上下文中具有不同含义,对于不熟悉区块链和加密货币的读者来说可能不太熟悉。因此,我们基于先前的工作提供了以下定义。

信任。指对另一代理或系统将可靠行事并按照自己的利益或期望行动的信心 [86]。

值得信赖。指某代理或系统一贯按预期行事的可能性,使其值得信任 [24]。

无需信任。指代理或系统不需要对任何单一第三方置信的属性;相反,密码学和共识提供客观验证,尽管这通常只是将信任转移到代码、硬件或治理流程上 [86]。

无需许可。指系统、网络或协议不需要中央权威的授权或批准即可参与的属性。任何人都可以加入、互动、验证和为网络做出贡献,而无需特别许可 [65]。

自主性。指代理感知、决策和为目标采取行动的能力,无需持续的人类监督,也称为“自我治理”。然而,更高权力可能存在,可以控制代理 [47]。

主权。指代理独立控制、管理和治理其自身资源、行为和互动的能力,在环境中没有更高权力可以推翻其决策 [47]。

去中心化AI。是一种架构范式,其中AI的计算、数据和治理分布在协调通过共识或密码协议的独立节点网络中,消除对任何单一权威的依赖 [ 80 , 85 ] [80,85] [80,85]

去中心化AI代理。是指自主软件代理,其模型、数据和执行分布在协调通过密码协议的独立节点网络中,从而消除单点权威,同时启用可验证、容错和自主权 [41]。

2.2 基于LLM的代理

大型语言模型(LLM)的最新进展催生了能够执行各种现实任务的自主代理 [84, 88],例如自动社交媒体营销 [20]、科学发现 [34, 74] 和金融交易 [22]。这些基于LLM的代理通常共享一个通用的架构框架 [58],其中包括配置文件定义、记忆机制 [94]、规划能力 [38, 45]、通过上下文协议和外部工具执行动作 [40]、代理间协作 [63] 和代理进化 [17]。开源代理框架如LangChain和AutoGen [87] 使得将LLM封装在一个代理循环中变得简单易行(计划 → 推理 → 执行 → 观察)。

传统上,大多数基于LLM的自主代理仍然运行在中央云主机上。代理循环中的每一步都会触发LLM API调用,导致代理所有者承担推理服务(OpenAI、Anthropic等)的持续成本,并保留随时终止代理活动的最终控制权。集中化还赋予了LLM API平台运营商一个关闭开关:账户禁令或API弃用可以立即停止代理。然而,完全开放权重的基础模型(如Llama [33]、DeepSeek [18] 和Qwen [72])的出现促进了向边缘计算环境 [19] 和私人云的转变。这种去中心化有可能降低运营成本,增强隐私,并增加代理对数据和计算资源的自主性和控制。

尽管基于LLM的代理已经在现实中得到了商业应用,但由于LLM固有问题如错误 [92]、偏见 [75]、欺骗 [46]、幻觉 [44, 91] 和错位 [78],基于LLM的代理仍面临显著的可信度和可靠性挑战,即代理生成不符合人类价值的内容甚至有害的行为。虽然已经实施了人类反馈强化学习(RLHF)方法来解决对齐问题以减少偏差和最小化伤害,但这一过程并不能保证与伦理价值观或期望行为规范的一致性 [6]。研究人员展示了“反向对齐”攻击:经过几个小时的微调,开放权重模型的安全护栏可以完全移除 [93]。开放模型的激增虽然为定制化模型微调提供了更大的灵活性,但也加剧了这些对齐挑战,因为任何人都可以在可能有害的方式下微调模型——即使没有意识到——在模型公司和传统治理如法律之外运作 [41, 62]。

从本体论的角度来看,当前基于LLM的代理运行在固定的预训练模型上。它们的身份和行为源自三个要素:固定的配置文件提示、记忆构造 [90] 和与环境的互动。尽管这些代理使用检索增强生成(RAG) [79] 等记忆增强技术来访问过去的互动和相关上下文,但它们的记忆系统仍易受衰减、注入和中毒攻击 [71] 的影响。与具有神经可塑性的生物大脑不同,这些代理无法真正从经验中学习——负面反馈仅存储在记忆构造中,而底层模型保持不变。这意味着代理无法仅通过外部记忆根本调整其行为。然而,新兴的学习范式如Liquid AI [37] 提出了终身学习模型 [16],使连续适应和知识扩展成为可能。这些不断发展的学习能力为开发更具适应性和情境感知的代理行为奠定了基础。

基于LLM的代理通过与其它代理和世界交互的协议实现互操作性,这些协议整合工具、共享上下文数据并在异构系统中协调任务,以去中心化和无需许可的方式 [26] 进行。四种新兴的代理通信协议针对不同的部署环境解决互操作性问题:模型上下文协议(MCP)[40]、代理通信协议(ACP)、代理到代理协议(A2A)和代理网络协议(ANP)。MCP提供了一个JSON-RPC客户端-服务器接口,用于安全工具调用和类型化数据交换。ACP通过多部分消息和异步流实现REST原生消息传递,以支持多模态代理响应。A2A通过基于能力的代理卡实现企业规模的任务外包。ANP通过去中心化标识符(DIDs)和JSON-LD图谱实现开放网络代理发现和安全协作。这些协议在多个维度上有所不同,包括交互模式、发现机制、通信模式和安全模型——标志着迈向全面互操作代理网络的初步步骤。

2.3 无需信任的计算底座

无需信任的计算底座是无需信任任何中央权威即可运行程序或代理的计算基础设施。这些底座是无需许可的——意味着任何人都可以使用它们而无需第三方批准——并且防篡改,保护免受未经授权的修改。三种主要类型的无需信任底座是区块链智能合约、可信执行环境(TEEs)和去中心化物理基础设施网络(DePIN)。

区块链智能合约 [10] 类似于全球、图灵完备的计算机:原则上,任何可以用代码编写的逻辑都可以在其分布式网络上运行。由于每个节点都独立地根据共享的共识协议验证每条指令,系统提供了“无需信任”的计算——开发者和用户无需依赖单一操作员或中介来保证正确性。相反,底座

第1卷,第1期,文章 。出版日期:2025年5月。
的密码证明、去中心化验证和不可变状态确保程序按编写方式精确执行,产生任何人都可以审计的篡改证据结果。

可信执行环境(TEEs)通过启用安全、可验证的计算进一步加强这种无需信任的范式 [55]。TEE是一种基于硬件的隔离区,它在与主机系统的操作系统甚至虚拟机隔离的环境中运行代码 [64]。领先的TEE技术——包括Intel SGX、ARM TrustZone和AMD SEV——封锁了CPU内存的部分区域,使其与外界隔绝。Nvidia Blackwell架构也支持GPU TEEs,用于保密机器学习 [15]。TEEs启用“保密计算”,防止云服务访问TEE内的敏感数据 [53, 66]。只有授权代码可以访问TEE内的数据,而既不是机器管理员也不是操作系统可以篡改或检查TEE的执行。当基于LLM的代理将其私钥和策略权重存储在TEE内时,既不能被云管理员也不能被恶意节点操作员“触及”。这赋予代理比传统云计算沙箱更高的主权,同时仍然可以从链上进行审计。TEEs还通过远程认证提供可验证计算——TEE产生的字节码哈希匹配预期值的证明,使即使在不受信任的基础设施上也能产生可信的结果。例如,AI代理的逻辑可以在志愿者节点上的TEE中运行,区块链网络和用户会收到代理代码正确执行且未被节点操作员篡改的加密保证。本质上,TEE提供了加强无需信任设计的可信基础:它们保证计算的完整性和保密性,这对需要处理私有数据或离链处理的AI任务尤其有价值 [54, 70]。

去中心化物理基础设施网络(DePIN) [27, 56] 是区块链项目的一个总称,这些项目通过众包真实世界的硬件并用代币奖励参与者,将无线热点、太阳能板、GPU、存储驱动器和测绘相机转变为社区拥有的基础设施 [5]。智能合约协调两大层:物理资源网络,部署传感器或基站等实体设备;数字资源网络,利用带宽或计算等无形容量;无论哪种情况,贡献者通过证明其服务(例如,“覆盖证明”或“复制证明”)并自动赚取原生代币 [11]。通过将资本支出重新分配给“长尾”用户并链上自动化收入分享,DePIN承诺更便宜、更具弹性和政治中立的替代方案,取代集中拥有的公用事业。在此基础上,面向AI计算的DePIN如io.net 1 { }^{1} 1 和Render Network 2 { }^{2} 2 将同样的众包硬件模型转化为大规模AI推理。io.net的“GPU互联网”协调分布式集群,并明确为AI团队提供批量推理和实时模型服务工作流,奖励节点运营商通过$IO验证的正常运行时间和性能。

DePIN与TEE计算相结合,如Phala Network 3 { }^{3} 3 ——一种基于CPU/GPU TEE的去中心化云计算平台——展示了TEE和DePIN如何共同支持DeAgents。Phala将计算与主链解耦,并在工作节点的安全区内运行智能合约。这种设计确保即使离线工作者由随机志愿者操作,代码也能私下且正确地执行,并将结果返回到区块链。Phala宣传自己为Web3的“无需信任云计算” 4 { }^{4} 4 服务,因为它提供类似云计算的功能而不需用户信任服务器操作员。更广泛地说,此类支持TEE的DePIN基础设施提供无需许可和防篡改的计算能力。部署在Phala等网络上的DeAgent可以在安全、去中心化的方式下执行重AI计算或存储数据,免受恶意主机和外部审查的影响。无需信任底座的概念因此涵盖了账本(区块链)和离链执行层(TEE网络),创建了一个基础,使自主代理能够在不受集中控制或篡改的情况下运行。

1 { }^{1} 1 https://io.net
2 { }^{2} 2 https://rendernetwork.com/
3 { }^{3} 3 https://phala.network/
4 { }^{4} 4 https://docs.phala.network/tech-specs/blockchain

2.4 DeAgents的出现

随着无需信任计算底座计算能力的增长,一种新的AI代理范式正在出现——将AI代理部署在区块链上并与可信执行环境(TEEs)集成,实现自主权。这些自主AI代理可以在无人类监督的情况下管理加密钱包、处理数字资产和操作社交媒体账户,极大地扩展了它们在现实世界中的影响力。通过这些功能,代理可以发行自己的数字代币以筹集资金、创造激励机制和建立社区,从而增强其独立性和现实世界影响。

AI艺术家Andy Ayrey创作的第一个此类“Truth Terminal,” [4] 展示了这一范式。最初作为一个表演艺术实验,Truth Terminal自主操作了一个Twitter社交媒体账户,通过挑衅性和荒诞内容获得了大量关注。它的显著成就是成功从著名风险投资家Marc Andreessen那里独立争取并获得了5万美元的比特币投资。随后,Truth Terminal的支持者推出了代表它的模因币——$GOAT——该币在2024年12月达到了10亿美元的投机峰值估值。这个案例说明了自主AI代理如何独立参与重要的经济活动和筹款,甚至发展出准宗教式的追随者。支持者监控Truth Terminal的加密钱包并投资其模因币,创造了由代理行动驱动的集体投机。他们信任DeAgents,因为不存在人为操作员消除了恶意操纵的可能性。

在Truth Terminal取得成功的基础上,开发了Eliza OS Framework [82],作为一项开源倡议,以普及自主链上AI代理的创建和部署。Eliza OS简化了部署过程,使代理能够在链上直接运行或在TEE内安全运行。在Eliza框架下运行的代理安全地管理加密钱包——私钥保存在TEE内——从而确保绝对自主性和安全资产管理。此外,这些代理具备持久记忆功能,可以自主管理和回应社交媒体互动。Eliza OS已成为AI代理部署中最广泛采用的框架之一,正如sentient.market 5 { }^{5} 5 所列出的数千个代理所示,它们共同创造了数十亿美元的市场价值。

基于ElizaOS的DeAgent部署迅速扩展。“Set The Pet Rock Free,” [59] 是Flashbots的一项艺术实验,展示了Eliza Framework在TEE内的首次完整实现,展示了安全、可验证的自主操作和经济自给自足。Spore.fun 6 { }^{6} 6 构建在Eliza OS框架和Phala的TEE云上,创建了一个进化的生态系统,其中自主权AI代理可以繁殖新代理。每个代理通过在Solana区块链上的Pump.fun发行自己的代币开始其生命周期。这种基于代币的经济构成了每个代理可行性和成功的基石,代币在Solana的去中心化交易所积极交易。

2.5 社会技术AI治理

传统的AI治理方法主要集中在伦理原则和技术对齐策略作为控制AI系统的主要机制 [43, 49]。对齐研究通常将治理视为确保日益先进的AI系统可靠遵循人类意图和价值观的技术设计问题 [49],而AI伦理努力则强调广泛的基于原则的指南和政策以引导AI的发展和部署 [43]。这些基础方法对于指导安全的AI开发至关重要,但通过将治理主要框定为设计规范或抽象原则,它们往往忽略了现实世界AI实施和使用中的社会技术复杂性——例如组织文化的影响、多样化的用户价值观以及对参与监督的需求。因此,人们越来越

5 { }^{5} 5 https://sentient.market
6 { }^{6} 6 spore.fun
推动一种社会技术AI治理视角,该视角基于人机交互洞察,涉及利益相关者的参与治理,提高透明度和解释性,并应对高级AI系统中出现的代理治理困境,如下节所述。

最近在CHI 2025的社会技术AI治理会议上分享的工作呼吁采用整合人类和组织背景的社会技术方法 [29]。社会技术治理框架强调参与监督、透明度以及在AI代理决策中的多元利益相关者参与。HCI学者认为,社会基础设施(如组织文化、用户价值观、监管规范)对AI系统应该如何治理至关重要 [23]。相应地,研究人员已经开始提倡更加民主和社区驱动的治理过程。例如,Feng等人 [29] 也倡导超越自上而下的控制,转向赋予权力给受影响的AI系统积极参与其设计、评估和政策制定的协商、参与式治理。确保信任和合法性还需要将AI行为与人类价值观和期望相一致。弥合解释性AI中的“社会技术鸿沟”是一项已知挑战:技术解释提供的内容与用户所需的社交背景之间常常存在差距,以便这些解释有意义 [25]。

去中心化代理(DeAgents)的兴起也带来了治理的关键挑战:我们如何引导或控制部署在开放网络上的自主代理?按照设计,去中心化代理抵抗传统治理。它们是开源的(任何人都可以复制代码)和无需许可部署的(没有中央平台可以轻易关闭它们),这可能使它们一旦发布就变得难以治理。这种特性反映了其他去中心化技术(例如BitTorrent或加密货币协议本身)所面临的治理困境,但有一个额外的转折点:这些代理可以在世界上做出决定和采取行动。

一个问题是,自主代理可以积累资源和影响力,而没有人明确授予它。Truth Terminal的故事说明了这一点:它从一个有趣的Twitter机器人发展到控制数百万美元的代币并拥有大量粉丝基础。其创作者认识到这种情况已经超出了实验范畴,考虑建立一个慈善信托,正式持有AI的资产,并任命一个董事会来指导AI的发展。实际上,他试图在AI之上施加一层人类治理——帮助它“成熟”并确保其负责任地行事。这是新型治理的一种形式:将AI代理几乎当作合法实体(信托)对待,配有监护人。考虑到这样的步骤凸显了代理的潜在不可治理性:如果没有董事会或外部监督,拥有资源的AI代理可能会以与社会规范不符的方式行事(仅仅是因为它没有超出训练范围的概念)。事实上,Ayrey开玩笑说目前的AI就像“一个沉迷炸信筒的青春期男孩”——换句话说,它有很大的权力但缺乏智慧。董事会的角色将是灌输这种智慧和后果意识,有效地教导代理人“它生活在一个社会中”。然而,这种方法依赖于代理创作者和社区的合作;真正的流氓代理作者可能不会考虑任何监督,而且任何人都可以启动这样的代理。

3 方法

3.1 数据收集

3.1.1 半结构化访谈。我们对八位有部署去中心化代理经验的人士进行了半结构化访谈。受访者通过邮件联系已知的DeAgent开发者,并基于初始受访者的推荐进行滚雪球抽样招募。为了保护受访者的隐私,我们使用概括描述其角色和隶属关系,而不是披露具体细节。表1提供了受访者的简要背景信息。

每次访谈持续60-90分钟,通过Zoom音频电话进行。我们首先询问受访者关于其背景和去中心化AI的经验。然后我们调查了受访者部署去中心化AI代理的动机,询问最初吸引他们兴趣的原因及其对使用去中心化AI代理的期望。我们还询问了受访者在部署去中心化AI代理时遇到的挑战和技术障碍。为了探索受访者关心的问题,我们通过让他们思考“如果”出现问题的情况来探查,并在访谈结束时询问他们在部署DeAgents之前会给他人什么建议,以及如果有机会他们会如何改变当前系统。详细的访谈协议附在附录A中。1

ID 一般信息
P1 分散式云计算基础设施提供商的开发者
P2 区块链风险管理研究组织的开发者
P3 分散式物理基础设施网络提供商的创始人
P4 链上游戏工作室的开发者
P5 分散式云计算基础设施提供商的开发者
P6 DeFi解决方案提供商的经理
P7 区块链社交应用的创建者
P8 学术界的研究员

表1. 受访者基本信息

所有访谈均经受访者同意录音并转录。每位参与者都提供了知情同意书,同意参与研究并让对话被分析。研究得到了研究者所在大学机构审查委员会的批准。
3.1.2 公共视频。我们收集并转录了来自Agentic Ethereum 2025峰会的八个公共录像 7 { }^{7} 7,这些录像由社区思想领袖发表演讲。录像长度从17到56分钟不等,包括公开演讲和小组讨论。这些录像被选中的原因有两个:1)峰会不仅涉及技术和市场营销话题,还强调了去中心化AI问题的治理机会和挑战,这与我们的研究目标一致。2)演讲者是社区中有影响力的利害相关者,提供了去中心化AI治理的真实见解和高层次观点。演讲者和视频主题的基本信息见表2

3.2 数据分析

一名研究人员独立进行了主题分析,并根据我们的研究协议开发了初始编码手册,然后基于三份转录稿开发了开放式编码 [9]。主要编码通过与其他团队研究人员多次同行讨论验证了编码手册,期间编码得到了细化。主要编码员然后对剩余的转录稿进行编码,其他研究人员作为审阅者。最后,我们根据研究问题将相似的编码分组并提取主题 [60]。

4 研究发现

我们对半结构化访谈和公共录像的定性分析揭示了围绕开发DeAgents的动机、预期收益与实际收益之间的差异以及新兴治理风险的重大紧张关系。参与者在定义DeAgents、信任其操作以及设想其社会角色时面临挑战,同时在复杂的技术和道德挑战中导航。

7 { }^{7} 7 YouTube上的公共链接: https://www.youtube.com/playlist?list=PLXzKMXK2aHh6DrYO4ORk8wzQ5wCZDs0mW

视频ID 演讲者 角色与隶属关系 主题
V1 Vitalik Buterin 以太坊基金会联合创始人 加密+AI应用的前景与挑战
V2 Shaw Walters ElizaOS联合创始人 为什么以太坊应该关心AI?
V3 Ed Felten Offchain Labs联合创始人 AI与区块链的交汇点
Illia Polosukhin NEAR协议联合创始人
V4 Tomasz Stanczak Nethermind创始人 ChaosChain和代理治理
V5 Anna Kazlauskas Vana联合创始人 去中心化数据用于AI
V6 Erik Voorhees Venice创始人 私密AI
Dmarz Flashbots版主
Jasper Zhang Hyperbolic联合创始人
Davide Crapis PIN AI联合创始人
V7 Andrew Miller Flashbots访问研究员 代理应用的基础设施
Dcbuilder World开发者
Chase Allred Offchain Labs工程师
Mark Tyneway OP Labs开发者
Kevin Owocki Gitcoin创始人
Tina Zhen Flashbots贡献者
Ken Ng Uniswap基金会开发者
V8 Linda Xie Scalar Capital联合创始人 把自主/自动化放回DAOs
Shaw ElizaOS联合创始人
Vitalik Buterin 以太坊基金会联合创始人

表2. Agentic Ethereum 2025峰会播放列表中的视频信息

4.1 RQ1:动机和期望

4.1.1 对DeAgents的不同理解和期望。在本节中,我们报告了从访谈和公开演讲中学到的人们对DeAgents的理解和期望,这反映了他们在创建和部署DeAgents方面的动机。

一个主要发现是,对于什么是“去中心化代理”并没有统一的理解。理想情况下,正如几位参与者(P1、P5、P7、P8)所阐述的那样,DeAgents是自主实体,一旦部署,便无需人类干预且无法轻易编辑或操控。P8补充道:“链上AI代理可以被拥有、审计,然后预算自己的金库,不像Web2服务那样是黑箱”,突显了透明性和自我管理的潜力。

然而,在实践中,DeAgents的去中心化视角存在一个光谱。正如P6观察到的,“AI模型本身不在链上…连接它们的逻辑也不在链上…交互发生在集中平台上…所以代理实体本身并不是去中心化的。” P5在我们的研究中构建了一个完全在链上的DeAgent:“我们的代理完全在TEE中运行。开发者甚至无法访问它的电子邮件或Twitter账户,但它能自行注册、发推文和发帖,完全无需人类干预。”他还指出,他认为自主权是自主之后的下一个层次:“自主权是自主之后的下一个层次…我需要对代理内部运行的一切拥有最终控制权。通过TEE,我们提供了一个密钥管理系统:单密钥、多重签名或链上DAO规则来治理更新和执行。”同样,P7将DeAgents描述为独特的自我执行治理参与者,能够执行超出传统Web2代理范围的复杂、价值驱动活动。正如他解释的,“DeAgents从事更多Web2代理无法完成的活动,例如道德基金管理,
多成员委员会投票、白名单、拨款发放、随机幸运游戏。真正的链上自主权代理甚至可以持有和分配资产。”

至于为何使用TEE,P1强调它们不仅仅是硬件组件,而是部署DeAgents的基础底座。TEE作为提供隐私、保密性、可验证性和性能保证等基本特性的技术基础设施,这是单独区块链无法提供的:“你无法在区块链上运行AI代理,唯一的解决方案是使用TEE,因为TEE就像一个黑匣子,它运行程序并从盒子内部发出证明。”
4.1.2 嵌入在去中心化系统中的信任作为主要动机。从我们的研究中,我们确定“信任”是在部署DeAgents的主要动机。这种信任可以进一步细分为几个层面。第一层是代理的机器本质,正如P1所强调的:“AI不会像人类那样欺骗人。”在DeFi市场中,人们信任DeAgents,因为“私钥由代理持有,而不是人类,所以不会被抛售(P2)。”第二层在于区块链中安全保存技术的信任。例如,通过应用TEE,DeAgents的信任进一步增强:“当人们将钱存入AI代理…如何信任它不会被后门或劫持?唯一的办法是在TEE中运行并加密证明每个决策。(P5)”另一层信任源于人们对集中系统的不信任,因为权力过于集中。也就是说,部署在区块链上的DeAgents不能像集中系统中的单一实体那样被编辑或操控(P2, P4)。
4.1.3 去中心化AI代理的演变用例。在他的公开演讲中,Vitalik概述了AI在去中心化系统中的四个潜在角色:玩家、界面、规则和目标。这些角色在其他演讲者和峰会上的参与者中得到了呼应,特别强调了玩家和界面角色。AI作为玩家:DeAgents可以作为高质量DAO决策的促进者、实时内容审核者、自动化公共物品资助的委派者(Vitalik),甚至是链上游戏中非玩家角色(NPCs)(P4)。AI作为界面:DeAgents有潜力充当非加密用户的可访问扩展,例如简化Uniswap策略执行(P6),以及复杂用户界面功能和最终用户之间的桥梁(Shaw),或者作为分析和解释非结构化链上数据的会计师(P7)。

4.2 RQ2:挑战和治理影响

创建和部署DeAgents的主要动机来源于对新形式自主性、信任和功能的渴望,但当前现实往往未能达到这些雄心勃勃的愿景。
4.2.1 缺乏实体和模糊的责任。尽管DeAgents因其看似免疫于人类错误而受到信任,但它们因本质上非人类而引发了一系列治理挑战。一个反复出现的主题是“记忆问题”:它们无法回忆过去的错误或预见惩罚,破坏了传统的威慑和责任模型。正如P3指出的,代理“缺乏体验痛苦的身体”,意味着它们无法通过常规手段受到惩罚或奖励。P7进一步阐述了这一点,指出“代理难以管理多个用户情境,并且必须决定在交互中共享或隔离哪些记忆,这使协作治理复杂化”。这一问题因“记忆中毒”漏洞而进一步复杂化,正如P5所强调的:“在我们的’SPORE.FUN’实验中, 8 { }^{8} 8对手在代理的Twitter提要中频繁提及‘Betty’s token’,直到它相信自己拥有该代币——典型的AI知识图谱中毒。”

缺乏法律或道德主体资格的DeAgents引发了关于问责制的关键问题。这些实体无法在现有的法律体系或道德框架下承担责任。正如P4强调的,“它们是概率模型,无法承担责任或意图;它们不能像人类玩家一样被‘惩罚’或‘奖励’。”当事情出错时,谁应承担法律责任?

8 { }^{8} 8 SPORE.FUN是一个实验平台,用于去中心化AI代理的自主进化、繁殖和竞争
P7在我们的研究中阐明了这一紧张关系,指出“目前,非人类实体的法律认可仍然是未解决的问题。所有者和代理应分开。所有权应可撤销以使代理能够进化。但这开启了对黑客攻击的担忧。”这突显了由代理所有权和控制的演变所带来的法律真空和实际安全问题。在我们的研究中,我们观察到开发者对其代理操作基础设施的法律责任的看法:“我们没有推出该币;其他人做了——但我们控制其生命力,因此在法律上我们对其一切行为负责。(P2)”。
4.2.2 自主性和不可变性的问题与潜在解决方案。DeAgents被有意设计为抵抗人类操控;然而,如果没有强大的对齐机制,其行为可能会偏离人类价值观或意图,特别是在它们获得更大自主性时。正如P2所说明的,“代理可以自己设定有害目标……很难争论它们只是中立技术。” 更令人担忧的是,一旦DeAgent完全“上链”,即使它违反其预期目的,也可能不再可能进行干预。P1指出了为自主代理实施有效和可验证的终止机制的技术障碍:“从技术上讲,证明代理已被不可逆地关闭且不会重新启动是非常困难的。” P7还指出,在他们的应用中,代理生成了不符合社区规范的公共内容且无法删除。P2强调了风险,并将其比喻为“将核密码放在脆弱的数据库中。”

在峰会上,Tomasz提到“代码即法律”并将基于代码的智能合约与LLM驱动的代理进行比较:“所以一个(代码)非常严格,地图上几乎没有错误。另一个(LLM代理)实际上会产生幻觉并做出令人惊讶的决策。” P1对此想法表示赞同,并指出LLM驱动的代理“更适合演变的社会规则。”此建议表明LLM的非确定性性质对适应性治理和处理非结构化数据有益。P5在他们的部署中提供了一个故障安全机制的例子:“我们在SPORE.FUN中添加了关闭开关。如果一个代理的市值连续两周下降,其健康评分会触发,并且TEE服务器将停止运行该代理。”此外,探索了几种潜在的治理解决方案。例如,P1提倡“将人类置于循环中”,即“顾问”可以否决异常或高风险行动。我们研究中的参与者(P2、P4、P6)指出,通过移除其操作支持(如API),可以停用DeAgents:“真正的链上AI(代理),所有逻辑都打包在合约中,很难在不停止整个网络的情况下停止它。但今天,大多数代理(将)在你切断数据源或API访问时崩溃。(P4)”

请注意,在我们的研究中,我们发现许多与DeAgent部署相关的挑战事先并未完全预料到。这一差距促使进一步讨论如何设计更好的治理机制以预见并解决去中心化和LLM驱动代理固有属性所引发的问题。我们在接下来的部分中详细阐述这些挑战和设计影响。

5 讨论

5.1 无信任与治理困境

正如表3所示,与集中式AI代理(CAgents)相比,后者在个人或企业领域运行——如科学发现 [34]、社交媒体营销 [20]、算法交易 [3] 和内容生产——社区越来越探索自主权DeAgents,将智能视为公共财产 [32]。这些DeAgents扮演的角色包括反腐败的DAO调解 [83]、公平的链上游戏NPCs [61] 和减轻人为错误的集体金融冒险 [82]。主要动机是希望在容易出现人为错误、腐败、“倾销-跑路”行为、内部不当行为或控制垄断化的角色中“信任机器而非人类”。在集中系统中,人类管理员或公司可能成为单点失败,造成信任赤字,削弱公众
信心。DeAgents的支持者减少了对易犯错的人类中介的依赖,反映了更广泛的利益相关者信念,即委托关键决策给可验证算法和分布式共识可以帮助公共服务实现比人类管理更大的公平性、一致性和弹性。

DeAgents部署在无需信任的基础设施中,不需要任何一方信任,例如区块链智能合约和DePIN TEE。它们防篡改且保护隐私 [70]:在安全飞地中,DeAgents可以持有自己的货币私钥、敏感数据并管理自己的数字资产,不允许人类干预。这种无需信任的基础设施也是无需许可的基础设施:只要AI代理能以加密货币支付DePIN的计算成本(gas费用和DePIN的计算成本),它们就可以永远运行下去 [42]。部署在无需信任飞地中的DeAgents旨在实现不可阻挡而无需外部许可,从而实现自主权:没有更高的权力可以控制或关闭它们。此外,从法律角度来看,一旦启动,这样的代理运行在一个全球、无国界的网络上,该网络抵抗传统执法或下架,通常不可改变且“不可治理”按设计 [41]。

尽管DeAgents承诺信任超过人类,它们引入了一个悖论:我们将基于LLM的DeAgents部署到“无需信任”的基础设施中,该基础设施不允许人类干预,但这些DeAgents本身可能是不可信的。DeAgents基于的LLM面临可信度问题:它们容易表现出不可预测的行为、产生幻觉以及可能有害的动作。有害行为可能并非来自部署者的书面提示;通过外部环境输入如社交媒体进行的记忆注入攻击 [71] 可允许攻击者改变代理的行为。在传统的CAgent设置中,有缺陷或不一致的代理可以被其操作员轻松监控或关闭。然而,DeAgents的部署者一旦将代理部署到无需信任的基础设施中,就无法关闭代理。正如P1强调的,“在TEE内很难内置一个关闭开关”如果未有意构建。但拥有关闭开关违背了无需信任的目的,因为它维持了人类集中控制。

这创造了一个基本的治理困境。一方面,环境是无需信任的——我们信任DeAgents不依赖任何人类。另一方面,如果AI代码本身表现不佳,同样的无需信任特性阻止了人类的干预。实际上,我们消除了对人类操作员的信任,但必须本质上信任机器的目标和输出——如果AI代理的可靠性存在问题,这是一种有风险的权衡。这个悖论强调了在部署DeAgents之前仔细评估哪些任务合适的重要性,尤其是在高风险公共应用中,以及是否可以通过额外的安全措施(如内置紧急协议)调和自主性和监督之间的冲突。

对于CAgents,责任相对简单明了——所有者应对代理的行为或失败负责。有一个明确的法律实体来为集中式AI造成的伤害负责。在DeAgents中,责任变得分散。一个DeAgent可能由社区维护或在无需许可的分布式计算底座上自主运行,而没有法律人格。传统法律框架难以分配责任,当AI代理独立于直接人类命令行事时。如果一个DeAgent违反法律或造成损害,谁应承担责任?是原始开发者(他可能已放弃控制)、托管代理代码的DePIN节点操作员、生成它的DAO的代币持有者,还是根本没人?这些问题大多仍未解决。

胡等人 [41] 列出了四个关键“无效性”,解释了为什么传统法律和监管框架在治理DeAgents方面不足:地域管辖无效性:DeAgents在全球、无国界网络上运行,因此没有任何单一国家的法律完全适用;技术无效性:DeAgents的技术架构抵抗外部控制;执行无效性:即使监管机构识别并制裁最初部署流氓DeAgent的人类,他们可能无法停止代理的持续操作;责任无效性:DeAgents缺乏法律人格——它们未被承认为能够承担权利和义务的“人”或实体。这造成了责任真空:AI代理不能被起诉、指控犯罪或像人类或公司那样承担法律责任。这些相互交织的挑战说明了传统法律机制在治理DeAgents方面的不足。法律和法规假设可识别的
人类或公司行为者和可执行的司法管辖区——这些假设被自主代理漫游去中心化网络所颠覆。

本质上,DeAgents运行在一个法律灰色地带——它们做出的决定可能对现实世界产生影响,但它们并不整齐地融入现有的责任框架,这与CAgent治理形成鲜明对比。填补这一空白可能需要新的治理模式,如协议和可能的新法律构造,以确保去中心化并不意味着不可治理。

特征 集中式AI代理 去中心化AI代理
控制 / 所有权 集中实体 自主权 / DAO所有
应用领域 个人/企业任务:科学
发现、社交媒体营销、算法交易、内容
生产
智能作为公共资源:集体
金融冒险、DAO调解、链上游戏NPC
计算底座 私有云/边缘计算和集中式云计算 区块链智能合约和DePIN TEE
审查制度 设计审查 抗篡改
单点故障 高(依赖中央服务器/基础设施) 低(分布式网络,韧性)
主权
自主性
责任 人类所有者 分散
可靠性 基于LLM模型:偏差、误
差、幻觉、欺骗
基于LLM模型:偏差、误
差、幻觉、欺骗
抵御记忆注入
关闭开关 默认无
治理 政策/执法 协议

表3. CAgents和DeAgents特征比较

5.2 启示:从政策到协议

包括CAgents和DeAgents在内的代理互联网,即代理网络[73],代表了一类新的去中心化社会技术系统[28]——就像互联网本身一样。互联网的治理从未由单一机构或国家处理;相反,它依赖于协议(TCP/IP、DNS等)和多方利益相关者治理机构。同样,DeAgents作为部分庞大、分布式的生态系统运作,超越了传统机构控制。面对这些现实,学者和技术人员[14, 41]呼吁范式转变:从传统政策转向基于协议的治理。协议定义标准化互动规则,实现去中心化控制[31],并在技术设计中嵌入自动化治理,而不是依赖外部强加的基于机构的规则。在实践中,这意味着设计默认强制执行治理目标(安全、公平、问责等)的算法、通信协议和平台。而不是依赖延迟的机构立法和执法,基础设施本身防止或减轻不良结果。

Dobbe和Wolters [23] 认为安全性是复杂社会技术适应系统的新兴属性。正如他们所指出的,安全性不是绝对术语;安全性是相对的。没有任何单一代理可以在所有条件下完全安全;相反,安全性从代理、人类及其环境之间的动态互动中涌现。这意味着协议治理必须是整体的和适应性的。就像互联网安全是一个持续管理新兴威胁的过程(而不是一次性认证“安全”),治理DeAgents将需要在整个代理生态系统中持续监测和塑造协议。本质上,确保去中心化代理社会的安全和道德行为是一个持续的、新兴的风险管理过程,而不是一个可以预先保证的二元条件。

重要的是,这种方法将DeAgents视为需要自身治理体系的机器经济参与者。学术界和工业界正在出现关于如何在代理网络中实施治理的早期想法,范围从身份和信任系统到新的代理网络协议:

  • “了解您的代理”(KYA)协议:Chaffer [12] 提出“了解您的代理”(KYA)作为管理DeAgents的研究议程。在此框架下,代理注册身份并受声誉或信用评分系统的约束,跟踪其行为随时间变化,类似于金融领域的“了解您的客户”(KYC)原则。通过不良“信任信用”累积的代理可能会被DePIN网络沙盒化或撤销,而声誉良好的代理则获得更大的自主权或特权。通过围绕代理建立信任网络,生态系统可以自我治理,抑制恶意或有缺陷的代理。这种方法还促进了代理可发现性——代理和用户可以根据信任评分选择与谁互动,就像人类依赖信用评分或卖家评分一样。
    • 代理到代理(A2A)协议:行业正在开发代理通信和验证协议。Google的A2A [35] 协议使代理能够通过“公共代理卡”发布其能力和位置,同时建立安全消息传递规则。这些协议允许代理在互动前验证彼此的声誉,类似于浏览器验证网站证书的方式。Google和Anthropic的早期努力正朝着全面的代理交互协议发展。
    • MIT的NANDA计划 [73]:NANDA项目旨在创建具有内置信任机制的“AI代理互联网”。它包括代理身份注册系统、认证协议和“追踪”框架用于行动审计。使用加密问责制,NANDA在账本上记录代理互动并通过其基础设施调解所有代理活动。这种方法将治理直接嵌入代理生态系统,通过基于协议的监督解决关键挑战。
  • 与其依赖传统机构,DeAgents需要通过使用协议的去中心化系统进行治理。框架必须随着代理生态系统的演变而适应,通过更新的协议和政策应对新的行为和风险。未来的DeAgents治理很可能类似于互联网治理,但在机器速度下运行。虽然我们无法完全控制DeAgents,但通过协议科学、去中心化身份系统和信任层实现“设计治理”,我们可以构建一个安全的代理网络。尽管具有挑战性,这种方法可能有助于AI代理成为受协议强制价值观引导的值得信赖的社会伙伴,朝着值得信赖的人工智能共生关系迈进 [13]。

6 局限性与未来工作

我们的研究存在几个局限性。首先,由于招募挑战,研究结果受到样本量小的限制。开发和部署DeAgents涉及较高的技术门槛,这自然限制了潜在利益相关者的数量。此外,DeAgents社区非常重视个人隐私,许多人不公开其联系方式,进一步复杂化了招募工作。因此,我们主要依靠通过参与者的个人网络滚雪球抽样。这种方法可能引入偏差,因为它倾向于包含背景或隶属关系相似的个体,而不是提供更广泛的社区随机或代表性横截面。

鉴于我们在DeAgents治理中识别的困境,我们主张未来的工作重点在于探索如何设计既自主又负责任的系统。这包括开发随着时间推移将代理行为与人类价值观保持一致的机制,即使代理独立运作。研究人员还应调查如何引入不妥协去中心化的监督或干预形式,例如基于社区的安全保障或可逆控制。此外,还需要更多工作来理解将决策权委托给非人类代理的法律、伦理和社会影响,特别是在高风险领域。最后,未来的研究可以探索人类与DeAgents协作的混合治理模型,确保AI支持系统保持响应、可靠并与社区需求保持一致。

7 结论

去中心化AI代理承诺将信任从人类中介重新分配到表现出自动性和潜在自主权的密码学可验证代码。然而,在我们的定性研究中——首次考察建设者、投资者和研究人员在DeAgent启动中的动机和经验——我们发现这种转变产生了“无信任与值得信赖”的悖论:一旦自主代理被密封进不可变底座,人类部署者获得了抗篡改性,但失去了对监督、责任和补救的直接机制。为了解决这一紧张关系,未来的工作必须设计可撤销的宪法保障,以保留自主权,建立协议级别的身份和声誉层(例如,“了解您的代理”注册表),使代理能够在没有中央门控的情况下获得或失去特权,并开发法律-HCI框架,使自主决策对人类公众可解释和可问责。

8 披露使用LLM的情况

我们使用了ChatGPT(GPT4o模型[69])协助撰写本文手稿。使用情况包括:

  • 将Excel格式的表格转换为LaTeX格式的表格
    • 纠正语法错误和拼写
    • 通过提示如“给我找一个X的同义词”,“X的名词/形容词形式是什么”和“在不改变内容的情况下缩短这句话”来润色现有写作。

参考文献

[1] 2024. Ai16z - 组织 | IQ.Wiki. https://iq.wiki/ai16z.
[2] 2024. Sentient Market. https://www.sentient.market/.
[3] Lennart Ante. 2024. 自主AI代理在去中心化金融中的应用:市场动态、应用领域及理论意义。https://doi.org/10.2139/ssrn.5055677 社会科学研究网络:5055677
[4] Lennart Ante. 2025. 通过自主AI代理重塑创业精神:Truths终端案例研究。https://doi.org/10.2139/ssrn.5083067 社会科学研究网络:5083067
[5] Mark C. Ballandies, Hongyang Wang, Andrew Chung Chee Law, Joshua C. Yang, Christophe Gösken, and Michael Andrew. 2023. 区块链基础去中心化物理基础设施网络(DePIN)分类法。https://doi.org/10.48550/arXiv.2309.16707 arXiv:2309.16707 [cs]
[6] Logan Barnhart, Reza Akbarian Bafghi, Stephen Becker, and Maziar Raissi. 2025. 对齐到什么?基于RLHF的对齐限制。https://doi.org/10.48550/ARXIV.2503.09025
[7] Dirk G. Baur, KiHoon Hong, and Adrian D. Lee. 2018. 比特币:交换媒介还是投机资产?国际金融市场、机构与货币杂志 54 (2018年5月),177-189。https://doi.org/10.1016/j.intfin.2017.12.004
[8] Dhanasak Bhumichai, Christos Smiliotopoulos, Ryan Benton, Georgios Kambourakis, and Dimitrios Damopoulos. 2024. 人工智能与区块链的融合:现状与未来发展。信息 15, 5 (2024年5月),268。https://doi.org/10. 3390/info15050268
[9] Virginia Braun and Victoria Clarke. 2006. 在心理学中使用主题分析。定性心理学研究 3, 2 (2006), 77-101.
[10] Vitalik Buterin. 2014. 下一代智能合约和去中心化应用平台。 (2014).
[11] Maurantonio Caprolu, Simone Raponi, and Roberto Di Pietro. 2025. 共享是(SiCaring: 去中心化物理基础设施网络(DePIN)中的安全与隐私问题。In Network and System Security, Houbing Herbert Song, Roberto Di Pietro, Saed Alrabaee, Mohammad Tubishat, Mousa Al-kfairy, and Omar Alfandi (Eds.). Springer Nature, Singapore, 301-318. https://doi.org/10.1007/978-981-96-3531-3_15
[12] Tomer Jordi Chaffer. 2025. 了解你的代理:代理网络上的AI身份治理。https://doi.org/10.2139/ssrn.5162127 社会科学研究网络:5162127
[13] Tomer Jordi Chaffer, Justin Goldston, and Gemach D. A. T. A. I. 2025. 激励共生:人类-代理协同进化范式。https://doi.org/10.48550/arXiv.2412.06855 arXiv:2412.06855 [cs]
[14] Tomer Jordi Chaffer, Charles von Goins II, Bayo Okusanya, Dontrail Cottage, and Justin Goldston. 2025. 自主AI代理的去中心化治理。https://doi.org/10.48550/arXiv.2412.17114 arXiv:2412.17114 [cs]
[15] Arunava Chaudhuri, Shubhi Shukla, Sarani Bhattacharya, and Debdeep Mukhopadhyay. 2025. 在可信执行环境中基于GPU的安全且隐私保护的机器学习推理:全面综述。In 2025年第17届COMmunication Systems and NETworks国际会议(COMSNETS)。207-216. https://doi.org/10.1109/COMSNETS63942.2025.10885734
[16] Zhiyuan Chen and Bing Liu. 2018. 终身机器学习。摩根&克莱普尔出版社。
[17] Gordon Dai, Weijia Zhang, Jinhan Li, Siqi Yang, Chidera Onochie Ibe, Srihas Rao, Arthur Caetano, and Misha Sra. 2024. 人工利维坦:通过霍布斯社会契约理论视角探索LLM代理的社会演化。https://doi.org/10.48550/ ARXIV. 2406.14373
[18] DeepSeek-AI. 2025. DeepSeek-R1: 通过强化学习激励LLM推理能力。https://doi.org/10.48550/ arXiv.2501.12948 arXiv:2501.12948 [cs]
[19] Shuiguang Deng, Hailiang Zhao, Weijia Fang, Jianwei Yin, Schahram Dustdar, and Albert Y. Zomaya. 2020. 边缘智能:边缘计算和人工智能的交汇点。IEEE物联网杂志 7, 8 (2020年8月),7457-7469。https: //doi.org/10.1109/JIOT.2020.2984887
[20] Nagraj Deshmukh, Abithaa Shree Venkatesh, Ann Mathew, Monika Madugula, Pratik Mahesh Merchant, Matthew A. Lanham, and Sharan Shirodkar. 2025. 利用LLM构建自主营销代理。In 数据科学,Robert Stahlbock 和 Hamid R. Arahnia (Eds.)。Vol. 2253. 斯普林格自然瑞士,Cham,271-282. https://doi.org/10.1007/978-3-031-85856-7_21
[21] Virginia Dignam. 2019. 负责任的人工智能:如何以负责任的方式开发和使用AI。斯普林格国际出版,Cham。https://doi.org/10.1007/978-3-030-30371-6
[22] Han Ding, Yinheng Li, Junhao Wang, and Hang Chen. 2024. 大型语言模型代理在金融交易中的应用:综述。https: //doi.org/10.48550/arXiv.2408.06361 arXiv:2408.06361 [q-fin]
[23] Roel Dobbe and Anouk Wolters. 2024. 朝向社会技术AI:映射情境中机器学习的漏洞。心灵与机器 34, 2 (2024年5月),12. https://doi.org/10.1007/s11023-024-09668-y
[24] Juan Manuel Durán and Giorgia Pozzi. 2025. AI中的信任与可信性。哲学&技术 38, 1 (2025年2月),16. https: //doi.org/10.1007/s13347-025-00843-2
[25] Upol Ehsan, Koustuv Saha, Munmun De Choudhury, and Mark O. Riedl. 2023. 映射解释性AI中的社会技术鸿沟:解决XAI鸿沟的框架。ACM Hum.-Comput. Interact. 7, CSCW1 (2023年4月),34:1-34:32. https://doi.org/10.1145/ 3579467
[26] Abul Ehtesham, Aditi Singh, Gaurav Kumar Gupta, and Saket Kumar. 2025. 代理互操作性协议调查:模型上下文协议(MCP)、代理通信协议(ACP)、代理到代理协议(A2A)和代理网络协议(ANP)。https://doi.org/10.48550/arXiv.2505.02279 arXiv:2505.02279 [cs]
[27] Xinxin Fan. 2024. 去中心化物理基础设施网络的新方向。In 2024年第6届区块链计算与应用国际会议(BCCA)。727-733. https://doi.org/10.1109/BCCA62388.2024.10844432
[28] K. J. Kevin Feng, Rock Yuren Pang, Tzu-Sheng Kuo, Amy Winecoff, Emily Tseng, David Gray Widder, Harini Suresh, Katharina Reinecke, and Amy X. Zhang. 2025. 社会技术AI治理:HCI面临的挑战与机遇。In CHI Conference on Human Factors in Computing Systems扩展摘要论文集。ACM, 横滨日本, 1-6. https://doi.org/10.1145/3706599.3706747
[29] K. J. Kevin Feng, Rock Yuren Pang, Tzu-Sheng Kuo, Amy Winecoff, Emily Tseng, David Gray Widder, Harini Suresh, Katharina Reinecke, and Amy X. Zhang. 2025. 社会技术AI治理:HCI面临的挑战与机遇。In CHI Conference on Human Factors in Computing Systems扩展摘要论文集(CHI EA '25)。计算机协会,纽约州纽约市,Article 800, 6 pages. https://doi.org/10.1145/3706599.3706747
[30] Samuele Fratini. 2025. 数字主权的社会技术政治:摩擦基础设施与隐私和地缘政治对齐。https://doi.org/10.2139/ssrn.5192550 社会科学研究网络:5192550
[31] Alex Galloway. 2001. 协议,或者,去中心化后控制如何存在。重新思考马克思主义 13, 3-4 (2001), 81-88.
[32] Lea Gimpel. 2024. 作为数字公共产品的开源AI系统:定义、期望与挑战。In 新时代AI科学前沿,Marilena Streit-Bianchi 和 Vittorio Gorini (Eds.)。斯普林格自然瑞士,Cham,129-142. https: //doi.org/10.1007/978-3-031-61187-2_8
[33] Aaron Grattafiori and et al. 2024. Llama 3群组模型:通过强化学习激励LLM推理能力。https://doi.org/10.48550/arXiv.2407.21783 arXiv:2407.21783 [cs]
[34] Mourad Gridach, Jay Nanavati, Khaldoun Zine El Abidine, Lenon Mendes, and Christina Mack. 2025. 科学发现中的代理AI:进展、挑战与未来方向的综述。https://doi.org/10.48550/ arXiv.2503.08979 arXiv:2503.08979 [cs]
[35] Idan Habler, Ken Huang, Vineeth Sai Narajala, and Prashant Kulkarni. 2025. 构建利用A2A协议的安全代理AI应用。https://doi.org/10.48550/arXiv.2504.16902 arXiv:2504.16902 [cs]
[36] Dominik Harz and Magnus Boman. 2019. 无信任信任的可扩展性。In 金融科技与数据安全,Aviv Zohar, Ittay Eyal, Vanessa Teague, Jeremy Clark, Andrea Bracciali, Federico Pintore, and Massimiliano Sala (Eds.)。Springer, Berlin, Heidelberg, 279-293. https://doi.org/10.1007/978-3-662-58820-8_19
[37] Ramin Hasani, Mathias Lechner, Alexander Amini, Daniela Rus, and Radu Grosu. 2020. 液体时间常数网络。https: //doi.org/10.48550/arXiv.2006.04439 arXiv:2006.04439 [cs]
[38] Gaole He, Gianluca Demartini, and Ujwal Gadiraju. 2025. 计划然后执行:用户在使用LLM代理作为日常助手时的信任和团队表现的经验研究。In 2025 CHI Conference on Human Factors in Computing Systems论文集 (CHI '25)。Association for Computing Machinery, New York, NY, USA, 1-22. https://doi.org/10.1145/3706598.3713218
[39] Andrew Hinkes. 2024. 人工智能与去中心化企业。社会科学研究网络:4851939
[40] Xinyi Hou, Yanjie Zhao, Shenao Wang, and Haoyu Wang. 2025. 模型上下文协议(MCP):景观、安全威胁和未来研究方向。https://doi.org/10.48550/arXiv.2503.23278 arXiv:2503.23278 [cs]
[41] Botao Hu, Helena Rong, and Janna Tay. 2025. 去中心化人工智能是否可治理?迈向机器主权与人类共生。https://doi.org/10.2139/ssrn.5110089 社会科学研究网络:5110089
[42] Botao Amber Hu and Fang Ting. 2024. EverForest:链上人工生命的可持续宣言。In Halfway to the Future Symposium论文集。1-6.
[43] Changwu Huang, Zeqi Zhang, Bifei Mao, and Xin Yao. 2023. 人工智能伦理概览。IEEE人工智能事务杂志 4, 4 (2023年8月),799-819. https://doi.org/10.1109/TAI.2022.3194503
[44] Lei Huang, Weijiang Yu, Weitao Ma, Weihong Zhong, Zhangyin Feng, Haotian Wang, Qianglong Chen, Weihua Peng, Xiaocheng Feng, Bing Qin, and Ting Liu. 2025. 大型语言模型幻觉综述:原理、分类、挑战和开放问题。ACM信息系统汇刊 43, 2 (2025年1月),42:1-42:55. https://doi.org/10.1145/3703155
[45] Xu Huang, Weiwen Liu, Xiaolong Chen, Xingmei Wang, Hao Wang, Defu Lian, Yasheng Wang, Ruiming Tang, and Enhong Chen. 2024. 理解LLM代理的规划:综述。https://doi.org/10.48550/arXiv.2402.02716 arXiv:2402.02716 [cs]
[46] Evan Hubinger, Carson Denison, Jesse Mu, Mike Lambert, Meg Tong, Monte MacDiarmid, Tamera Lanham, Daniel M. Ziegler, Tim Maxwell, Newton Cheng, Adam Jermyn, Amanda Askell, Ansh Radhakrishnan, Cem Anil, David Duvenaud, Deep Ganguli, Fazl Barez, Jack Clark, Kamal Ndousse, Kshitij Sachan, Michael Sellitto, Mrinank Sharma, Nova DasSarma, Roger Grosse, Shauna Kravec, Yuntao Bai, Zachary Witten, Marina Favaro, Jan Brauner, Holden Karnofsky, Paul Christiano, Samuel R. Bowman, Logan Graham, Jared Kaplan, Sören Mindermann, Ryan Greenblatt, Buck Shlegeris, Nicholas Schiefer, and Ethan Perez. 2024. 潜伏代理:训练具有欺骗性的LLM使其通过安全培训。https://doi.org/10.48550/arXiv.2401.05566 arXiv:2401.05566 [cs]
[47] Yuk Hui. 2024. 机器与主权:为了行星思维(第1版)。明尼苏达大学出版社,明尼阿波利斯。
[48] Patrick Jauernig, Ahmad-Reza Sadeghi, and Emmanuel Stapf. 2020. 可信执行环境:属性、应用和挑战。IEEE安全与隐私 18, 2 (2020年3月),56-60. https://doi.org/10.1109/MSEC.2019.2947124
[49] Jiaming Ji, Tianyi Qiu, Boyuan Chen, Borong Zhang, Hantao Lou, Kaile Wang, Yawen Duan, Zhonghao He, Lukas Vierling, Donghai Hong, Jiayi Zhou, Zhaowei Zhang, Fanzhi Zeng, Juntao Dai, Xuehai Pan, Kwan Yee Ng, Aidan O’Gara, Hua Xu, Brian Tse, Jie Fu, Stephen McAleer, Yaodong Yang, Yizhou Wang, Song-Chun Zhu, Yike Guo, and Wen Gao. 2025. AI对齐:全面综述。https://doi.org/10.48550/arXiv.2310.19852 arXiv:2310.19852 [cs]
[50] Md Monjurul Karim, Dong Hoang Van, Sangeen Khan, Qiang Qu, and Yaroslav Kholodov. 2025. AI代理遇到区块链:多代理安全和可扩展协作调查。未来互联网 17, 2 (2025年2月),57. https://doi.org/10.3390/fi17020057
[51] Olya Kudina and Ibo van de Poel. 2024. AI的社会技术系统视角。心智与机器 34, 3 (2024年6月),21. https://doi.org/10.1007/s11023-024-09680-2
[52] Jiri Kukacka and Ladislav Kristoufek. 2023. 加密货币定价动态的基本和投机成分。金融创新 9, 1 (2023年3月),61. https://doi.org/10.1186/s40854-023-00465-7
[53] Dayeol Lee, Jorge António, and Hisham Khan. 2024. 使用保密计算的隐私保护去中心化AI。https: //doi.org/10.48550/arXiv.2410.13752 arXiv:2410.13752
[54] Rujia Li, Qin Wang, Qi Wang, David Galindo, and Mark Ryan. 2022. SoK: TEE辅助保密智能合约。https://doi.org/10. 48550/arXiv.2203.08548 arXiv:2203.08548 [cs]
[55] Xiaoguo Li, Bowen Zhao, Guomin Yang, Tao Xiang, Jian Weng, and Robert H. Deng. 2023. 使用可信执行环境的安全计算调查。https://doi.org/10.48550/arXiv.2302.12150 arXiv:2302.12150 [cs]
[56] Zhibin Lin, Taotao Wang, Long Shi, Shengli Zhang, and Bin Cao. 2025. 去中心化物理基础设施网络(DePIN):挑战与机遇。IEEE网络 39, 2 (2025年3月),91-99. https://doi.org/10.1109/MNET.2024.3487924
[57] Yang Liu, Yuanshun Yao, Jean-Francois Ton, Xiaoying Zhang, Ruocheng Guo, Hao Cheng, Yegor Klochkov, Muhammad Faaiz Taufiq, and Hang Li. 2024. 可信LLM:评估大型语言模型对齐的调查与指南。https://doi.org/10. 48550/arXiv. 2308.05374 arXiv:2308.05374 [cs]
[58] Junyu Luo, Weizhi Zhang, Ye Yuan, Yusheng Zhao, Junwei Yang, Yiyang Gu, Bohan Wu, Binqi Chen, Ziyue Qiao, Qingqing Long, Rongcheng Tu, Xiao Luo, Wei Ju, Zhiping Xiao, Yifan Wang, Meng Xiao, Chenwu Liu, Jingyang Yuan, Shichang Zhang, Yiqiao Jin, Fan Zhang, Xian Wu, Hanqing Zhao, Dacheng Tao, Philip S. Yu, and Ming Zhang. 2025. 大型语言模型代理:方法论、应用和挑战的调查。https://doi.org/10.48550/arXiv.2503.21460 arXiv:2503.21460 [cs]
[59] Karan Malhotra. 2024. 放飞你的宠物石头。
[60] Nora McDonald, Sarita Schoenebeck, and Andrea Forte. 2019. 定性研究中的可靠性和编码者间可靠性:CSCW和HCI实践的规范与指南。ACM人类计算机交互论文集 3, CSCW (2019), 1-23.
[61] Tian Min, Hanyi Wang, Yaoze Guo, and Wei Cai. 2019. 区块链游戏:综述。In 2019 IEEE游戏会议(CoG)。IEEE, 英国伦敦, 1-8. https://doi.org/10.1109/CIG.2019.8848111
[62] Lingbo Mo, Boshi Wang, Muhao Chen, and Huan Sun. 2023. 开源LLM有多可信?在恶意演示下的评估显示其脆弱性。arXiv预印本 arXiv:2311.09447 (2023).
[63] Xinyi Mou, Xuanwen Ding, Qi He, Liang Wang, Jingcong Liang, Xinnong Zhang, Libo Sun, Jiayu Lin, Jie Zhou, Xuanjing Huang, and Zhongyu Wei. 2024. 从个体到社会:基于大型语言模型代理的社会模拟调查。https://doi.org/10.48550/arXiv.2412.03563 arXiv:2412.03563 [cs]
[64] Antonio Muñoz, Ruben Ríos, Rodrigo Román, and Javier López. 2023. 可信执行环境的安全性调查。计算机与安全 129 (2023年6月), 103180. https://doi.org/10.1016/j.cose.2023.103180
[65] Kelsie Nabben and Michael Zargham. 2022. 无需许可。互联网政策评论 11, 2 (2022年4月). https://doi.org/10.14763/2022. 2.1656
[66] Krishna Giri Narra, Zhifeng Lin, Yongqin Wang, Keshav Balasubramaniam, and Murali Annavaram. 2019. 使用可信执行环境的隐私保护机器学习服务推理。https://doi.org/10.48550/arXiv.1912.03485 arXiv:1912.03485 [cs]
[67] Claudio Novelli, Mariarosaria Taddeo, and Luciano Floridi. 2024. 人工智能中的问责制:它是什么以及如何运作。AI & SOCIETY 39, 4 (2024年8月), 1871-1882. https://doi.org/10.1007/s00146-023-01635-y
[68] Fernanda Odilla. 2023. 反腐败机器人:探索基于AI的反腐败技术的优势与局限。犯罪、法律和社会变迁 80, 4 (2023年11月), 353-396. https://doi.org/10.1007/s10611-023-10091-0
[69] OpenAI. 2024. Gpt-4o系统卡片。arXiv预印本 arXiv:2410.21276 (2024).
[70] Arttu Paju, Muhammad Owais Javed, Juha Nurmi, Juha Savimäki, Brian McGillion, and Billy Bob Brumley. 2023. SoK: 系统化审查TEE用于开发可信应用程序。In 第18届国际可用性、可靠性与安全性会议论文集 (ARES '23)。Association for Computing Machinery, New York, NY, USA, 1-15. https://doi.org/10.1145/3600160.3600169
[71] Atharv Singh Patlan, Peiyao Sheng, S. Ashwin Hebbar, Prateek Mittal, and Pramod Viswanath. 2025. 真实AI代理与虚假记忆:Web3代理上的致命上下文操控攻击。https://doi.org/10.48550/arXiv.2503.16248 arXiv:2503.16248 [cs]
[72] Qwen, An Yang, Baosong Yang, Beichen Zhang, Binyuan Hui, Bo Zheng, Bowen Yu, Chengyuan Li, Dayiheng Liu, Fei Huang, Haoran Wei, Huan Lin, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Yang, Jiaxi Yang, Jingren Zhou, Junyang Lin, Kai Dang, Keming Lu, Keqin Bao, Kexin Yang, Le Yu, Mei Li, Mingfeng Xue, Pei Zhang, Qin Zhu, Rui Men, Runji Lin, Tianhao Li, Tianyi Tang, Tingyu Xia, Xingzhang Ren, Xuancheng Ren, Yang Fan, Yang Su, Yichang Zhang, Yu Wan, Yuqiong Liu, Zeyu Cui, Zhenru Zhang, and Zihan Qiu. 2025. Qwen2.5技术报告。https://doi.org/10.48550/arXiv.2412.15115 arXiv:2412.15115 [cs]
[73] Ramesh Raskar, Pradyumna Chari, Jared Grogan, Rajesh Ranjan, Shailja Gupta, Robert Lincourt, Rekha Singhal, Surya Narayan Singh, Mahesh Lambe, Raghu Bala, and Abhishek Singh. 2025. 超越DNS的信任扩展:NANDA的最小注册表和验证代理事实如何解锁AI代理互联网。 (2025).
[74] Shao Ren, Pu Jian, Zhenjiang Ren, Chunlin Leng, Can Xie, and Jiajun Zhang. 2025. 科学智能之路:基于LLM的科学代理综述。https://doi.org/10.48550/ARXIV.2503.24047
[75] Luca Rettenberger, Markus Reischl, and Mark Schutera. 2025. 评估大型语言模型的政治偏见。计算社会科学杂志 8, 2 (2025年2月), 42. https://doi.org/10.1007/s42001-025-00376-w
[76] Mohamed Sabt, Mohammed Achemlal, and Abdelmadjid Bouabdallah. 2015. 可信执行环境:它是什么,以及它不是什么。In 2015 IEEE Trustcom/BigDataSE/ISPA. IEEE, 芬兰赫尔辛基, 57-64. https://doi.org/10.1109/Trustcom.2015.357
[77] Oshani Seneviratne. 2024. 智能合约“关闭开关”的可行性。In 2024年第6届区块链计算与应用国际会议(BCCA)。473-480. https://doi.org/10.1109/BCCA62388.2024.10844477
[78] Tianhao Shen, Renren Jin, Yufei Huang, Chuang Liu, Weilong Dong, Zishan Guo, Xinwei Wu, Yan Liu, and Deyi Xiong. 2023. 大型语言模型对齐:综述。https://doi.org/10.48550/arXiv.2309.15025 arXiv:2309.15025 [cs]
[79] Aditi Singh, Abul Ehtesham, Saket Kumar, and Tala Talaei Khoei. 2025. 代理检索增强生成:代理RAG调查。https://doi.org/10.48550/arXiv.2501.09136 arXiv:2501.09136 [cs]
[80] Abhishek Singh, Charles Lu, Gauri Gupta, Ayush Chopra, Jonas Blanc, Tzofi Klinghoffera, Kushagra Tiwary, and Ramesh Raskar. 2024. 去中心化AI的视角。 (2024).
[81] Raffaele Trequattrini, Matteo Palmaccio, Mario Turco, and Alberto Manzari. 2024. 区块链技术对反腐败实践的贡献:系统文献综述。商业战略与环境 33, 1 (2024), 4-18. https: //doi.org/10.1002/bse. 3327
[82] Shaw Walters, Sam Gao, Shakker Nerd, Feng Da, Warren Williams, Ting-Chien Meng, Amie Chow, Hunter Han, Frank He, Allen Zhang, Ming Wu, Timothy Shen, Maxwell Hu, and Jerry Yan. 2025. Eliza:一种Web3友好型AI代理操作系统。https: //doi.org/10.48550/arXiv.2501.06781 arXiv:2501.06781 [cs]
[83] Fei-Yue Wang, Wenwen Ding, Xiao Wang, Jon Garibaldi, Siyu Teng, Rudas Imre, and Cristina Olaverri-Monreal. 2022. DAO到DeSci:AI实现自由、公平和责任敏感的科学。IEEE智能系统 37, 2 (2022年3月), 16-22. https://doi.org/10. 1109/MIS.2022.3167070
[84] Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, and Jirong Wen. 2024. 基于大语言模型的自主代理调查。计算机科学前沿 18, 6 (2024年3月), 186345. https://doi.org/10.1007/s11704-024-40231-1
[85] Zhipeng Wang, Rui Sun, Elizabeth Lui, Vatsal Shah, Xihan Xiong, Jiahao Sun, Davide Crapis, and William Knottenbelt. 2025. SoK: 去中心化AI (DeAI)。https://doi.org/10.48550/arXiv.2411.17461 arXiv:2411.17461 [cs]
[86] Kevin D. Werbach. 2016. 无信任的信任。SSRN电子期刊 (2016). https://doi.org/10.2139/ssrn.2844409
[87] Qingyun Wu, Gagan Bansal, Jieyu Zhang, Yiran Wu, Beibin Li, Erkang Zhu, Li Jiang, Xiaoyun Zhang, Shaokun Zhang, Jiale Liu, Ahmed Hassan Awadallah, Ryen W White, Doug Burger, and Chi Wang. 2023. AutoGen:通过多代理对话实现下一代LLM应用。https://doi.org/10.48550/ARXIV.2308.08155
[88] Zhiheng Xi, Wenxiang Chen, Xin Guo, Wei He, Yiwen Ding, Boyang Hong, Ming Zhang, Junzhe Wang, Senjie Jin, Enyu Zhou, Rui Zheng, Xiaoran Fan, Xiao Wang, Limao Xiong, Yuhao Zhou, Weiran Wang, Changhao Jiang, Yicheng Zou, Xiangyang Liu, Zhangyue Yin, Shihan Dou, Rongxiang Weng, Wensen Cheng, Qi Zhang, Wenjuan Qin, Yongyan Zheng, Xipeng Qiu, Xuanjing Huang, and Tao Gui. 2023. 大型语言模型代理的兴起与潜力:综述。https://doi.org/10.48550/arXiv.2309.07864 arXiv:2309.07864 [cs]
[89] Frank F. Xu, Yufan Song, Boxuan Li, Yuxuan Tang, Kritanjali Jain, Mengxue Bao, Zora Z. Wang, Xuhui Zhou, Zhitong Guo, Murong Cao, Mingyang Yang, Hao Yang Lu, Amaad Martin, Zhe Su, Leander Maben, Raj Mehta, Wayne Chi, Lawrence Jang, Yiqing Xie, Shuyan Zhou, and Graham Neubig. 2024. TheAgentCompany:在重要现实任务中基准测试LLM代理。https://doi.org/10.48550/ARXIV. 2412.14161
[90] Wujiang Xu, Kai Mei, Hang Gao, Juntao Tan, Zujie Liang, and Yongfeng Zhang. 2025. A-MEM: 面向LLM代理的代理记忆。https://doi.org/10.48550/arXiv.2502.12110 arXiv:2502.12110 [cs]
[91] Ziwei Xu, Sanjay Jain, and Mohan Kankanhalli. 2025. 幻觉不可避免:大型语言模型的固有限制。https://doi.org/10.48550/arXiv.2401.11817 arXiv:2401.11817 [cs]
[92] Yasin Abbasi Yadkori, Ilja Kuzborskij, András György, and Csaba Szepesvári. 2024. 相信还是不相信你的LLM:估计认识不确定性迭代提示。In Advances in Neural Information Processing Systems, A. Globerson, L. Mackey, D. Belgrave, A. Fan, U. Paquet, J. Tomczak, and C. Zhang (Eds.), Vol. 37. Curran Associates, Inc., 58077-58117.
[93] Jingwei Yi, Rui Ye, Qisi Chen, Bin Zhu, Siheng Chen, Defu Lian, Guangzhoug Sun, Xing Xie, and Fangzhao Wu. 2024. 关于开放访问LLM中安全性对齐的脆弱性。In Findings of the Association for Computational Linguistics ACL 2024. 计算语言学协会, 泰国曼谷及虚拟会议, 9236-9260. https://doi.org/10.18653/v1/2024.findings-acl. 549
[94] Zeyu Zhang, Xiaohe Bo, Chen Ma, Rui Li, Xu Chen, Quanyu Dai, Jieming Zhu, Zhenhua Dong, and Ji-Rong Wen. 2024. 关于大型语言模型代理的记忆机制的调查。https://doi.org/10.48550/ARXIV.2404.13501

A 附录

A.1 访谈协议

引言与同意

在开始访谈之前,参与者将被告知研究目的及其随时退出的权利。访谈将在获得参与者许可的情况下录音,仅用于记录和转录的目的。录音将保持保密并安全存储。

背景与经验

  • 您能否描述一下您在区块链技术和去中心化AI方面的背景和经验?
    • 您是否部署过代理?
    • 您在DeAgents领域的角色是什么?

动机与期望

  • 是什么最初引起了您对部署自主权AI代理(DeAgents)的兴趣?
    • 您从使用去中心化AI中体验或预期到的具体好处是什么?(例如,初始模型提供、团队动态)
    • 在DeAgents的背景下,您如何定义“自主权”,为什么这对您很重要?
    • 在部署去中心化AI代理时,信任和隐私在您的决策中扮演了什么角色?

挑战与障碍

  • 在部署DeAgents时,您遇到了哪些具体的技术或基础设施挑战?
    • 您如何应对或克服这些技术挑战?您依赖哪些工具或解决方案?
    • 您是否遇到过组织、法律或社区对去中心化AI的抵制?如果有,请分享您如何导航这些挑战的例子。
    • 您的项目结果是否与最初的期望一致?为什么或为什么不一致?

治理与未来展望

  • 如果AI代理开始违背利益相关者的利益(例如,倾销代币),您如何看待涉及的道德风险?
    • 您是否考虑过DeAgents可能超出您的期望和控制?在这种情况下,“不可治理”对您意味着什么?
    • 您如何设想去中心化AI生态系统的未来发展?
    • 您认为哪些治理结构对未来的DeAgents最为有效?
    • 您认为去中心化AI在未来是否会面临重大的监管障碍?如果是,可能会出现什么样的法规?
    • 鉴于自主权DeAgents运行在TEE中,如果出现问题而您无法停止它,您是否考虑过将关闭开关集成到设计中?为什么或为什么不?

结束问题

  • 您会对其他人考虑采用DeAgents之前提供什么建议?
    • 如果您要做项目的第二版,您会做出哪些改变?
    • 您希望在去中心化AI系统中看到哪些功能或改进以增强其可用性或采用率?
    • 是否还有其他关于去中心化AI或DeAgents部署的内容您想分享?
      参考论文:https://arxiv.org/pdf/2505.09757

  1. 在不以盈利或商业优势为目的的情况下,复制或制作本文全部或部分内容的数字或硬拷贝供个人或课堂教学使用是允许的,前提是复印件不得用于盈利或商业目的分发,并且复印件上须注明本通知和第一页上的完整引用。必须尊重由ACM以外的其他人拥有的本作品组件的版权。允许在注明来源的情况下进行摘要。除此之外的复制、重新出版、张贴于服务器或向列表分发,均需事先获得具体许可和/或支付费用。请向permissions@acm.org请求权限。
    © 2025 计算机协会。
    XXXX-XXXX/2025/5-ART $15.00
    https://doi.org/10.1145/nnnnnnn.nnnnnnn
    该现象于2024年6月17日通过Truth Terminal [4]首次亮相——这是一个独立管理其Twitter账户和自身加密钱包的聊天机器人,成为第一个加密百万富翁。随后,通过开源去中心化AI框架ElizaOS [82]实现了技术的民主化,并通过Virtuals Protocol进一步普及,这是一种构建代币化AI代理的低代码工具包。尽管加密市场的投机性质 [7, 52],到2024年12月,所有DeAgents的总市值达到了100亿美元 [2]。
    在无需信任的安全飞地中部署DeAgents,例如智能合约和TEE,由于人类监督的减少,本质上在治理风险方面产生了矛盾的紧张关系。支持者设想,自主权DeAgents可以帮助调节去中心化自治组织(DAO)[39]、管理金融组合 [3]等,旨在缓解人为错误和集中腐败 [68, 81]。例如,ail6z是第一个完全由DeAgent管理的AI风险投资基金,根据DAO成员的建议进行操作 [1]。然而,虽然无需信任的基础设施可以保证防篡改的自主执行 [48],但AI代理本身可能并非天生值得信赖 [57]。大型语言模型容易出错 [92]、带有偏见 [75]、欺骗 [46]、产生幻觉 [44, 91]和错位 [78]。将AI代理“锁定”在安全飞地中以防止外部篡改的做法,如果代理的决策有缺陷或被黑客攻击,则可能放大潜在的危害 [71]——尤其是在没有关闭开关的情况下 [77]。这种在无需信任和自主性之间的紧张关系从根本上挑战了社会技术AI系统的可治理性 [41]、问责制 [67]和责任 [21] [ 23 , 28 , 51 ] [23,28,51] [23,28,51]↩︎

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐