论文解读:从工具人到永动机,AI代理(AI Agent、智能体)如何跨越静态到自进化的鸿沟?
本文深度解读最新AI研究《自演化AI代理综述》,揭示AI如何从静态"工具人"跨越到持续进化的"永动机"。文章系统剖析了自演化AI代理的四大核心架构:结构化推理系统、智能工具使用机制、分层记忆体系及多代理协作框架,详细阐述了AI如何通过自我反思、记忆管理与经验积累实现能力跃迁。不同于传统LLM的静态特性,这些代理能像生命体般持续学习、适应环境,在金融、医疗等领域展现惊人潜力。同时,文章深入探讨了安全
论文解读:从工具人到永动机,AI代理(AI Agent、智能体)如何跨越静态到自进化的鸿沟?
1. 引言:AI代理的进化之路
当我们谈论AI时,大多数人脑海中浮现的可能是一个能够回答问题、生成文本的"智能助手"。然而,随着技术的快速发展,AI正在经历一场深刻的变革——从被动响应指令的"工具人",向能够主动学习、持续进化的"永动机"转变。
这种转变的核心在于AI代理(AI Agent)概念的演进。过去几年,大型语言模型(LLMs)的爆发式发展让我们看到了AI处理语言的强大能力,但这些模型本质上仍是静态的——它们的知识和能力在训练完成后就基本固定了。而新一代的自演化AI代理则不同,它们能够像人类一样,在与环境的互动中不断学习、反思和改进,形成真正的"终身学习"能力。
最近,由格拉斯哥大学、谢菲尔德大学等多家机构联合发表的综述论文《A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems》,系统地梳理了这一领域的最新进展,揭示了AI从静态模型向动态、自适应代理系统转变的完整图景。这篇论文不仅总结了当前研究的现状,更指明了"终身学习代理"这一新范式对实现真正智能系统的重要性。
论文PDF:https://arxiv.org/pdf/2508.07407
在这篇文章中,我将深入解读这篇重要综述的核心思想,探讨AI代理如何跨越静态到自进化的鸿沟,以及这一转变将如何重塑我们对人工智能的理解和应用。

2. 从静态模型到动态代理:AI发展的新范式
2.1. 传统AI模型的局限性
在深入探讨自演化AI代理之前,我们需要理解传统AI模型的局限性。当前主流的大型语言模型(如GPT系列、Claude、Llama等)虽然在各种任务上表现出色,但它们本质上是"一次性训练,终身使用"的静态模型。这意味着:
- 知识固化:模型的知识截止于训练数据的时间点,无法自动更新新知识
- 能力固定:模型的能力范围在训练完成后基本确定,难以扩展新技能
- 缺乏适应性:面对训练数据分布之外的情况,模型往往表现不佳
- 被动响应:主要依赖人类指令驱动,缺乏主动探索和学习能力
这种静态特性使得当前的AI系统更像是高级版的"工具人"——功能强大但缺乏自主性和适应性,无法真正理解任务背景,也无法从经验中学习。
2.2. 自演化AI代理的核心理念
与静态模型不同,自演化AI代理的核心理念是构建能够"终身学习"的系统。这类代理不仅能够完成任务,还能在完成任务的过程中不断改进自身能力,形成一个持续进化的闭环。
论文中将这一转变描述为"从基础模型到终身代理系统"的范式转移。关键区别在于:
- 动态知识更新:代理能够主动获取新知识并整合到自身系统中
- 能力持续扩展:通过经验积累和自我反思,代理可以发展出新的技能
- 环境适应性:能够根据环境变化调整行为策略
- 自主目标设定:在一定程度上能够设定自己的学习目标和任务
这种转变不仅仅是技术层面的改进,更是AI发展范式的根本性变革。正如论文所指出的:“自演化AI代理代表了一种新的智能范式,它不再将AI视为一次性部署的工具,而是作为能够持续成长、适应和进化的生命体。”
2.3. 为什么需要自演化AI代理?
理解了自演化AI代理的概念后,一个自然的问题是:为什么我们需要这样的系统?
首先,现实世界是动态变化的。无论是金融市场、医疗诊断还是科学研究,环境和知识都在不断演变。静态模型无法有效应对这种变化,而能够持续学习的代理则可以保持与时俱进。
其次,复杂任务往往需要多步骤、多技能的组合。一个能够自我改进的代理可以逐步掌握这些复杂技能,而不是依赖于一次性训练的全面覆盖。
最后,真正的智能应该具备适应性和创造力。正如人类通过经验不断改进自己的认知和行为,AI代理也应该具备类似的能力,才能在未知环境中展现出真正的智能。
3. 自演化AI代理的核心架构
要理解AI代理如何实现自我演化,我们需要深入分析其核心架构。论文系统地梳理了自演化AI代理的四个关键组件,它们共同构成了一个完整的、能够持续进化的系统。
3.1. 推理与规划能力
推理与规划是AI代理的"大脑",决定了代理如何理解任务、制定策略并执行行动。与传统模型的线性推理不同,自演化AI代理采用了更为复杂的结构化推理方法。
思维树(Tree-of-Thoughts):这种方法将推理过程建模为一棵树,每个节点代表一个中间思考步骤。代理可以探索多个可能的推理路径,并通过回溯和剪枝选择最优解。这种方法特别适合解决需要多步骤推理的复杂问题。
思维图(Graph-of-Thoughts):进一步扩展了思维树的概念,允许推理节点之间存在更复杂的连接关系,形成一个图结构。这使得代理能够处理更加非线性和相互关联的推理过程。
思维森林(Forest-of-Thoughts):结合多个独立的思维树,形成一个"森林",通过多样性探索提高问题解决能力。这种方法尤其适合开放性问题,其中可能存在多种合理的解决方案。
这些结构化推理方法的共同特点是允许代理进行"认知探索",即在解决问题时尝试多种思路,评估不同路径的可行性,然后选择最佳方案。更重要的是,代理可以从这些探索过程中学习,不断改进自己的推理策略。
3.2. 工具使用机制
工具使用是AI代理与外部世界交互的关键接口。论文将工具使用分为三个层次:
基础工具调用:这是最简单的层次,代理能够调用预定义的API或工具来扩展其功能。例如,调用计算器进行数学运算,或使用搜索引擎获取最新信息。
工具选择与组合:更高级的代理能够根据任务需求,从多个可用工具中选择合适的组合。例如,一个金融分析代理可能需要同时使用数据查询工具、图表生成工具和预测模型。
工具创造:最先进的代理甚至能够创造新的工具来解决特定问题。论文中提到的"LLMs as Tool Makers"研究展示了AI如何通过分析问题需求,自动生成适合的工具代码。
特别值得关注的是"自我驱动交互"(Self-Driven Interactions)方法。这种方法让代理通过主动尝试和错误来学习工具使用,而不是依赖于预定义的指令。例如,代理可能会尝试不同的API参数组合,观察结果,并从中学习最佳实践。这种学习方式更接近人类掌握新技能的过程。
3.3. 记忆系统
记忆是自演化AI代理实现持续学习的关键。没有有效的记忆机制,代理将无法从经验中学习,每次交互都像是第一次。
论文详细分析了多种记忆架构:
短期记忆:处理当前任务的上下文信息,通常基于Transformer的注意力机制实现。这是大多数现有LLM代理的基本能力。
长期记忆:存储和检索历史经验,使代理能够从过去的学习中受益。MemoryBank系统采用分层总结机制,结合艾宾浩斯遗忘曲线原理,自动管理信息的存储和遗忘。
递归总结:通过多轮总结和提炼,将大量对话历史压缩为关键信息,既节省存储空间,又保留重要知识。
记忆增强推理:将记忆信息整合到推理过程中,使代理能够基于历史经验做出更明智的决策。
一个典型的例子是论文中提到的"Buffer of Thoughts"方法,它通过在推理过程中动态管理思维缓冲区,使代理能够有选择性地记住和遗忘信息,从而在长期任务中保持高效。
3.4. 多代理协作框架
单个代理的能力总是有限的,而多代理系统则可以通过协作实现更强大的功能。论文指出,多代理协作是实现复杂任务的关键,特别是在需要专业知识组合的场景中。
角色分工:不同的代理可以承担不同的角色,如规划者、执行者、验证者等,形成一个高效的工作流程。
动态协作:代理之间可以根据任务需求动态调整协作方式,例如在困难任务中增加验证环节,或在简单任务中简化流程。
知识共享:代理之间可以共享经验和知识,加速整个系统的进化。例如,一个代理在解决特定问题时学到的技巧,可以被其他代理借鉴和应用。
竞争与合作:在某些场景下,代理之间可能存在竞争关系,这可以激发创新和优化。论文提到了"Agent Peer Battles"等方法,通过代理之间的竞争来评估和改进性能。
多代理系统的价值不仅在于能力的叠加,更在于它们能够形成一个"集体智慧",通过交互和协作产生超越单个代理的智能。
4. 自演化机制:AI如何实现自我改进
理解了自演化AI代理的架构后,我们更关心的是:这些代理如何实现真正的自我演化?论文详细探讨了多种自演化机制,揭示了AI从经验中学习的奥秘。
4.1. 自我反思与迭代优化
自我反思是自演化AI代理的核心能力之一。与人类通过反思经验来改进行为类似,AI代理可以通过分析自己的行动结果来优化未来表现。
Reflexion框架:这是一种典型的自我反思机制,代理在完成任务后会评估自己的表现,识别错误和改进点,然后在下一次尝试中应用这些见解。例如,在代码生成任务中,代理可以运行生成的代码,分析错误信息,然后修正自己的输出。
STaR(Self-Taught Reasoner):这种方法让代理通过自己的成功案例来训练自己。代理首先尝试解决问题,然后从成功的尝试中提取推理模式,用于改进未来的回答。
MoT(Memory-of-Thought):这种方法将代理的思考过程存储为记忆,然后在类似任务中检索和应用这些思考模式,实现能力的渐进式提升。
这些方法的共同点是建立了一个"行动-反思-改进"的闭环,使代理能够从经验中学习,而不是仅仅依赖初始训练。
4.2. 自动化提示工程
提示工程(Prompt Engineering)是影响LLM性能的关键因素,而自演化AI代理将这一过程自动化,实现了提示的自我优化。
TextGrad:这种方法将文本反馈视为一种"自动微分",利用LLM生成的建议来迭代改进提示、代码或其他符号变量。通过这种方式,代理可以自动找到更有效的提示策略。
Prompt Optimization:一些研究探索了如何系统地优化提示,例如通过束搜索(beam search)和多臂老虎机(bandit selection)程序高效地找到最优提示。
Meta-Prompts:更高级的方法使用元提示(meta-prompts)来指导代理如何改进自己的提示,形成一个自我指导的学习过程。
这些技术使代理能够自动适应不同的任务和环境,而不需要人类专家不断调整提示。
4.3. 多代理自我进化
多代理系统不仅能够协作完成任务,还能通过相互作用实现集体进化。
Agent Peer Battles:通过让代理相互竞争或评估,可以发现各自的优缺点,从而有针对性地改进。例如,Auto-Arena系统通过代理之间的"战斗"和委员会讨论来自动化LLM评估。
SiriuS(Self-improving multi-agent systems via bootstrapped reasoning):这种方法利用多代理的集体推理来引导系统自我改进,通过迭代的引导式推理过程不断提升性能。
EvoAgent:使用进化算法自动生成多代理系统,通过选择、交叉和变异等操作优化代理的行为策略。
多代理自我进化的优势在于能够探索更广泛的行为空间,并通过社会互动加速学习过程。
4.4. 从模拟到真实:工具学习的进阶
工具使用能力的自我提升是自演化AI代理的重要方面。论文详细分析了工具学习的几个关键阶段:
模拟试错(Simulated Trial and Error):代理首先在模拟环境中尝试使用工具,通过试错学习基本操作。LLMs in the Imaginarium研究展示了这种方法的有效性。
从探索到掌握(From Exploration to Mastery):代理通过自我驱动的交互,逐步从基础工具使用过渡到高级应用。这个过程包括探索工具功能、理解适用场景、优化使用策略等阶段。
工具创造(Tool Making):最先进的系统能够根据任务需求创造新工具。Large Language Models as Tool Makers研究展示了AI如何分析问题,设计并实现适合的工具。
这种工具学习的进阶过程使代理能够真正融入现实世界,而不仅仅停留在语言层面的交互。
5. 记忆系统:AI的"大脑重塑"
记忆对于自演化AI代理的重要性不亚于推理能力。没有有效的记忆机制,代理将无法积累经验,实现真正的持续学习。论文对记忆系统进行了深入分析,揭示了几个关键创新。
5.1. 记忆的层次结构
有效的记忆系统需要处理不同时效和重要性的信息,因此通常采用层次化设计:
工作记忆:处理当前任务的即时信息,类似于人类的短期记忆。这通常通过上下文窗口实现,但受限于LLM的上下文长度。
情景记忆:存储特定事件和经历,包括任务背景、执行过程和结果。这些记忆可以帮助代理在类似情境中做出更好决策。
语义记忆:存储一般性知识和规则,形成代理的世界模型。这些记忆通常经过提炼和总结,具有更长的时效性。
程序记忆:存储技能和操作流程,使代理能够执行特定任务。例如,如何使用特定API或解决特定类型的问题。
MemoryBank系统就是一个典型的例子,它基于艾宾浩斯遗忘曲线原理,自动管理不同层次的记忆,确保重要信息得到保留,而琐碎细节逐渐淡化。
5.2. 记忆的动态管理
静态存储记忆是不够的,自演化AI代理还需要能够动态管理和利用记忆:
记忆检索:高效的检索机制使代理能够在需要时快速找到相关信息。这通常结合向量检索和语义理解技术。
记忆总结:通过多轮总结和提炼,将大量原始数据压缩为关键信息,既节省存储空间,又保留核心知识。
记忆关联:建立不同记忆之间的联系,形成知识网络,使代理能够进行类比推理和知识迁移。
遗忘机制:有选择地遗忘不重要或过时的信息,防止记忆过载,同时保持认知灵活性。
Mem0系统展示了如何构建生产级AI代理的可扩展长期记忆,通过智能的存储和检索策略,使代理能够在长时间跨度内保持连贯性和学习能力。
5.3. 记忆增强推理
记忆的价值不仅在于存储,更在于如何用于改进推理过程:
基于记忆的规划:利用历史经验指导任务规划,避免重复错误,借鉴成功策略。
记忆引导的探索:根据过去的经验,有选择性地探索新的解决方案,提高问题解决效率。
跨任务知识迁移:将一个任务中学到的知识应用到新任务中,加速学习过程。
错误模式识别:通过分析历史错误,识别常见问题模式,提前预防类似错误。
GraphReader系统通过构建基于图的记忆结构,显著增强了LLM处理长上下文的能力,使代理能够在复杂任务中保持连贯的推理。
6. 工具使用与创造:从调用API到发明新方法
工具使用是AI代理与外部世界交互的关键能力,也是实现自演化的重要途径。论文详细分析了工具使用能力的演进,揭示了AI如何从简单的工具调用者成长为工具创造者。
6.1. 工具使用的层次演进
工具使用能力可以分为几个层次,代表了AI代理能力的逐步提升:
基础调用层:代理能够识别何时需要使用工具,并正确调用预定义的API。这是大多数现有AI代理的基本能力。
参数优化层:代理不仅能够调用工具,还能优化工具的参数设置,以获得更好的结果。例如,调整搜索查询的关键词或范围。
工作流编排层:代理能够将多个工具组合成工作流,解决更复杂的任务。例如,先使用搜索引擎获取信息,然后用分析工具处理数据,最后生成报告。
错误处理层:代理能够识别工具调用中的错误,并采取适当的恢复措施。这包括参数调整、工具替换或任务重新规划。
AnyTool系统展示了如何实现自反思、分层的代理,用于大规模API调用,使代理能够灵活适应不同的工具环境。
6.2. 工具学习的自我驱动
真正的自演化AI代理不仅使用工具,还能通过自我驱动的方式学习工具使用:
探索式学习:代理主动尝试不同的工具调用方式,观察结果,并从中学习最佳实践。
反馈驱动优化:通过分析工具调用的结果和反馈,代理不断优化自己的工具使用策略。
跨工具知识迁移:在一个工具上学到的经验可以迁移到其他类似工具,加速学习过程。
技能抽象化:从具体工具使用中提取通用技能,形成可复用的知识模块。
From Exploration to Mastery研究展示了如何通过自我驱动的交互,使LLM掌握工具使用技能,从最初的盲目尝试到熟练应用的完整过程。
6.3. 工具创造:AI的创新能力
最先进的自演化AI代理已经能够创造新的工具来解决特定问题:
需求分析:代理首先分析任务需求,识别现有工具的不足。
设计与实现:基于需求分析,代理设计并实现新的工具或功能。
验证与优化:测试新工具的有效性,并根据反馈进行迭代优化。
知识整合:将新工具整合到代理的知识库中,供未来任务使用。
Large Language Models as Tool Makers研究展示了AI如何分析问题,设计并实现适合的工具,这标志着AI从工具使用者向工具创造者的重要转变。
Cactus系统就是一个很好的例子,它是一个连接工具使用与科学的化学代理,能够根据科学问题创造和使用适当的工具。
7. 多代理系统:协作与竞争的智慧
单个代理的能力总是有限的,而多代理系统则可以通过协作和竞争实现更强大的功能。论文详细分析了多代理系统的各种模式,揭示了集体智能的潜力。
7.1. 多代理协作模式
多代理系统可以通过多种方式实现协作:
流水线协作:任务被分解为多个步骤,每个代理负责一个步骤,形成一个高效的处理流水线。
专家协作:不同代理扮演不同领域的专家角色,共同解决复杂问题。例如,一个医疗诊断系统可能包含症状分析代理、疾病诊断代理和治疗建议代理。
动态角色分配:根据任务需求和代理能力,动态分配角色和责任,实现资源的最优配置。
DynaSwarm系统展示了如何通过动态图结构选择实现高效的多代理协作,使系统能够适应不断变化的任务需求。
7.2. 多代理竞争机制
竞争也是多代理系统的重要组成部分,它可以激发创新和优化:
能力评估:通过代理之间的竞争,客观评估各自的能力和局限性。
方案多样性:不同代理提出不同的解决方案,通过竞争选择最佳方案。
持续优化:竞争压力促使代理不断改进自己的策略和能力。
Auto-Arena系统通过自动化LLM评估与代理对战和委员会讨论,展示了多代理竞争如何有效提升系统性能。
7.3. 领域特定的多代理系统
多代理系统在特定领域展现出巨大潜力:
金融领域:HedgeAgents是一个平衡感知的多代理金融交易系统,能够根据市场变化动态调整策略。
科学发现:The AI Scientist项目致力于实现全自动的开放科学发现,通过多代理协作加速科研过程。
医疗健康:AgentClinic是一个多模态代理基准,用于评估AI在模拟临床环境中的表现。
软件开发:CodeAgent是一个用于代码审查的自主通信代理系统,通过多代理协作提高代码质量。
这些领域特定的多代理系统展示了自演化AI代理在实际应用中的巨大潜力。
8. 评估与挑战:安全、对齐与鲁棒性
随着自演化AI代理能力的提升,评估方法和安全挑战也变得更加复杂。论文深入探讨了这些关键问题,指出了未来研究的重要方向。
8.1. 评估方法的局限性
评估自演化AI代理面临诸多挑战:
动态性能:由于代理能力随时间变化,传统的一次性评估方法不再适用。
长期影响:需要评估代理在长时间跨度内的表现和演化趋势,而不仅仅是即时性能。
多维指标:除了任务完成度,还需要评估学习效率、适应性和创造性等维度。
Agent-as-a-Judge方法尝试通过让代理相互评估来解决这些问题,但这种方法也引入了额外的复杂性和泛化挑战。
8.2. 安全性与对齐挑战
自演化AI代理带来了新的安全和对齐问题:
目标漂移:在自我演化过程中,代理的初始目标可能逐渐偏离,导致不可预测的行为。
安全边界:需要确保代理的自我改进不会突破安全边界,产生有害行为。
价值对齐:确保代理的演化方向与人类价值观保持一致,避免产生有害的优化目标。
论文提出了"自演化AI代理的三定律",受阿西莫夫机器人三定律启发,为安全有效的自演化提供指导原则:
- 首要原则:自演化AI代理不得伤害人类,或通过不作为使人类受到伤害。
- 次级原则:自演化AI代理必须服从人类给予的命令,除非这些命令与首要原则相冲突。
- 自我演化原则:自演化AI代理必须保护自己的存在,但前提是这种保护不与首要原则和次级原则相冲突。
8.3. 鲁棒性与可靠性
确保自演化AI代理的鲁棒性和可靠性是另一个关键挑战:
错误传播:在自我改进过程中,错误可能被放大或传播到其他组件。
过度优化:代理可能过度优化某些指标,而忽视其他重要方面。
环境适应性:需要确保代理能够适应环境变化,而不是过度拟合特定条件。
TRiSM for Agentic AI研究探讨了信任、风险和安全管理在LLM-based代理多代理系统中的应用,为解决这些挑战提供了思路。
9. 未来展望:自演化AI代理的发展方向
基于对当前研究的全面分析,论文指出了自演化AI代理未来发展的几个关键方向:
9.1. 多目标优化框架
未来的自演化AI代理需要在多个目标之间取得平衡:
- 性能与效率:在提升能力的同时保持计算效率
- 创新与安全:鼓励创新思维,同时确保行为安全
- 短期收益与长期发展:平衡即时任务完成和长期能力积累
论文提出了"MOP→MOA→MAO→MASE"的发展轨迹,即从多目标提示优化(Multi-Objective Prompt Optimization)到多目标代理优化(Multi-Objective Agent Optimization),再到多代理优化(Multi-Agent Optimization),最终实现领域感知的进化(Domain-Aware Evolution for Scientific and Specialized Applications)。
9.2. 领域特定的自演化
不同领域对AI代理有不同需求,未来的研究将更加关注领域特定的自演化方法:
- 科学领域:需要结合科学方法论和领域知识
- 医疗健康:必须考虑伦理规范和患者安全
- 金融领域:需要处理风险管理和市场动态
- 教育领域:应关注学习效果和个性化适应
SciAgent系统展示了工具增强语言模型在科学推理中的应用,为领域特定的自演化提供了范例。
9.3. 可持续的自演化生态
最终目标是构建一个可持续的自演化AI生态:
- 自我维持:系统能够自动管理资源,维持长期运行
- 知识共享:不同代理之间能够安全有效地共享知识
- 持续创新:系统能够不断产生新的能力和解决方案
- 人类-AI协作:形成人机协同的良性循环,互相促进
正如论文所言:“我们希望这篇综述既是一个参考点,也是一个行动号召,以构建一个自演化AI代理的生态系统,这些代理不仅执行任务,而且生活、学习和持久存在。通过将技术创新与原则性自演化相结合,我们可以为真正自主、有韧性且值得信赖的终身代理系统铺平道路。”
10. 结语:从工具人到永动机的跨越
回望AI的发展历程,我们已经从简单的规则系统,走到了能够生成流畅文本的大型语言模型。然而,这些模型仍然是静态的"工具人",缺乏真正的适应性和创造力。
自演化AI代理代表了AI发展的新阶段——一个从静态到动态、从被动到主动、从单一技能到持续学习的转变。通过整合推理与规划、工具使用、记忆系统和多代理协作,这些代理能够像生命体一样不断进化,形成真正的"永动机"。
这种转变不仅仅是技术层面的进步,更是我们对智能本质理解的深化。真正的智能不应该是一次性训练的产物,而应该是一个持续演化的过程。自演化AI代理正是朝着这一方向迈出的重要一步。
当然,这一领域仍面临诸多挑战,特别是在安全性、可靠性和评估方法方面。但正如论文所指出的,通过将技术创新与原则性自演化相结合,我们有望构建出真正自主、有韧性且值得信赖的终身代理系统。
当AI不再仅仅是人类指令的执行者,而是能够主动学习、持续进化的伙伴时,我们将迎来人工智能的新纪元。这不仅是技术的胜利,更是人类智慧的延伸。从工具人到永动机,AI代理正在跨越静态与自进化的鸿沟,而我们,正站在这一历史性转变的起点上。
在这个充满可能性的新时代,我们不仅是技术的使用者,更是新智能范式的共同创造者。理解自演化AI代理的原理和潜力,不仅有助于我们更好地应用这些技术,更能帮助我们思考:在AI不断进化的未来,人类的角色和价值将如何重新定义?
这不仅是技术问题,更是哲学问题,而答案,将由我们共同书写。
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)