不会用LangGraph?这篇就够了!AI智能体搭建保姆级教程(附源码)
AIcoding越来越卷,工具越接越多,但越用越让我焦虑 —— 特别是某 c....r它总像一个急着表现的新同事,不问全局、就开始动手执行。我发现它:
AIcoding越来越卷,工具越接越多,但越用越让我焦虑 —— 特别是某 c…r
它总像一个急着表现的新同事,不问全局、就开始动手执行。我发现它:
- 刚启动就火力全开:不等我把意图讲完就调工具;
- 重复调用接口:出了错就死磕一个 API,丝毫没有“换个思路”的意识;
- 逻辑断片严重:上一秒还在分析,下一秒就不记得自己分析的是什么。
这些坑我踩过太多次,以至于后来我都养成了“先给 AI 做一个冷启动提示词”的习惯。
有点像是:
“你别急,我先帮你想好怎么干,你再去动手。”
我们人类其实很擅长“在脑子里先走一遍流程”这件事。
这种能力,说白了就是 规划(Planning)。AI 不具备,是因为它根本没有“做计划”这个意识。
作为一个在 AI 应用开发一线摸爬滚打的算法工程师,我的目标是让 Agent 拥有它。今天就和大家分享一下最近的学习心得 —— 如何让你的 Agent 学会「三思而后行」:基于 Anthropic、OpenAI 的最新研究,以及我在实际开发中的踩坑经验。

一、AI,不擅长“打草稿”这件小事
数据不会骗人,两个官方实验直接拉开了差距
实验1:OpenAI官方的"强行规划"实验
在 SOTA 论文里,OpenAI 的研究员干了一件很极致的事——他们不是引导模型去规划,而是强行命令它:“先规划,再行动,别自作主张”。
贴一个原话:
"You MUST plan extensively before each function call,
and reflect extensively on the outcomes of the previous function calls.
DO NOT do this entire process by making function calls only,
as this can impair your ability to solve the problem and think insightfully."
多加这一句,SWE-bench 的通过率就提升了 4%。
虽然你可能觉得 4% 不多,但要知道这是在已经很强的模型上拉的提升。
更重要的是——OpenAI 这个实验不是靠 prompt 魔法,而是配合后训练(RLHF)来强化这个指令的。
我们用的开源模型,别说RLHF了,连理解都不一定到位……
实验2:Anthropic的"思考工具"
Anthropic更进一步,他们不只是"要求"模型规划,而是给了模型一个专门的工具——think tool:
{
"name":"think",
"description":"Use this tool when you need to think through a problem step by step",
"input_schema":{
"type":"object",
"properties":{
"thought":{
"type":"string",
"description":"Your structured thinking process"
}
}
}
}
看起来简单到令人发指,对吧?但这就是工程学的美妙之处——最优雅的解决方案往往是最简单的。
直接在 τ-bench 上直接提升了 54% 的完成率。
一个“思考工具”能顶得上半个模型优化?!
然后我意识到一件事:这不是在优化“推理能力”,这是在重塑模型的行为模式——让它从“习惯执行”变成“先组织认知,再输出行为”。

Think Tool vs Extended Thinking:不只是"暂停"
这里有个重要的概念需要澄清。很多人会问:“这和Extended Thinking有什么区别?”
- Extended Thinking发生在AI开始响应之前,像是在心里打草稿
- Think Tool发生在AI开始响应之后,像是在工作过程中主动停下来整理思路
| 模式 | 思考发生时间 | 可控性 | 记录性 |
|---|---|---|---|
| Extended Thinking | 回复之前 | 黑盒 | 无法追踪 |
| Think Tool | 回复之中 | 显式触发 | 可记录、可分析 |
Think Tool更适合处理那些需要分析外部信息的复杂场景,比如:
- 分析工具调用的返回结果
- 在长链工具调用中保持逻辑一致性
- 在政策繁复的环境中确保合规性

54%的性能提升背后,是AI从"盲目执行"到"深思熟虑"的质的飞跃。
你可能会觉得:一个工具调用而已,至于这么讲究吗?
但我想说的是,在我不断试错的过程中发现,只有让“思考”成为流程的一部分,Agent 才不再是一个随机响应的黑盒,而是一个可以协同的思考体。
这就是我为什么把“规划能力”当成是 Agent 的第一性能力——只有它拥有了“画施工图”的本领,才有可能成为我们真正意义上的智能助手。
二、三大主流规划方案:各有千秋
那么,如何让AI学会规划呢?目前业界主流的方案有三种,各有千秋
| 方案 | 代表 | 实现方式 | 我的评价 |
|---|---|---|---|
| Prompt显式规划 | OpenAI | 在Prompt中要求输出规划步骤 | 简单直接,但效果限于OAI的后训练模型 |
| 结构化思考工具 | Anthropic | 定义think工具让模型主动调用 | 可靠性高无限制,首选 |
| 独立规划模块 | OpenManus | 专门的Planning Flow生成计划 | 适合超复杂任务,但重炮打蚊子 |
为什么“思考工具”是当前优选?
Leon’s Take: 作为一个追求优雅和通用方案的J人,答案其实很清晰。我们需要的不是一个更聪明的“黑盒”,而是一个更可靠、更可控的“流程”。
-
开源模型友好:对于"请规划一下"这种模糊指令,开源模型的理解能力参差不齐。但「调用xx工具」这是它们的强项。
-
强制结构化:工具可以强制模型输出特定字段,比如:
{ "thought": "当前分析", "plan": "分解步骤", "action": "下一步行动", "step_number": "步骤编号" } -
可追溯调试:每次思考都有记录,出问题时能快速定位。
蚂蚁集团的论文也印证了我的想法。他们在构建自己的Agent平台时,最终选择了复用Anthropic的 思考工具 思路
蚂蚁集团的生产级实践
蚂蚁的工程师们在实际部署中,设计了一个更加工程化的思考工具:
{
"name":"思考和规划",
"description":"分阶段梳理思考、计划、行动",
"input_schema":{
"properties":{
"thought":{"type":"string"}, // 当前分析
"plan":{"type":"string"}, // 分解步骤
"action":{"type":"string"}, // 下一步建议
"thoughtNumber":{"type":"string"}// 步骤编号
},
"required":["thought","plan","action","thoughtNumber"]
}
}
这个设计的巧妙之处在于:
- 强制结构化:避免模糊的思考内容
- 步骤追踪:便于调试和优化
- 行动导向:直接输出下一步该做什么
- 流式友好:支持实时输出,提升用户体验
特别是thoughtNumber,对于我们这些需要调试和复盘的J人来说,简直是福音。
三、实战指南:四步构建规划Agent
接下来,我们以构建一个具备规划能力的Agent为例,提供一套从模型选型到Prompt设计的完整实践指南。
Step 1: 模型选型——工欲善其事,必先利其器
- 推荐:优先选择对Function Call(工具调用)优化过的模型,例如
DeepSeek-V3 Function Call版。这类模型能更好地理解和执行工具调用指令。 - 避坑:避免选择为通用对话设计的模型,如
DeepSeek-R1,它们在多工具连续调用场景下可能表现不佳,且延迟较高。 - 参数设置:建议将生成多样性参数(如
temperature)设置为一个较低的值,比如0.3。这有助于在保证准确性的前提下,获得一些有限的创造性,避免模型“胡思乱想”。
Step 2: 核心关键工具配置
思考与规划工具 (think_and_plan)
这是我们为Agent植入的“大脑”。它的定义至关重要。
{
"name":"think_and_plan",
"description":"在执行任何业务操作前必须调用的思考工具。像人类一样先思考再行动。",
"input_schema":{
"type":"object",
"properties":{
"user_intent":{
"type":"string",
"description":"你对用户核心需求的理解"
},
"current_situation":{
"type":"string",
"description":"当前状态分析,包括已有信息和缺失信息"
},
"plan":{
"type":"array",
"items":{"type":"string"},
"description":"详细的执行步骤列表,每步都要具体可执行"
},
"next_action":{
"type":"string",
"description":"基于规划确定的下一个具体行动"
}
},
"required":["user_intent","current_situation","plan","next_action"]
}
}
使用逻辑:可以在System Prompt强制模型在每次调用业务工具前,必须先调用此think_and_plan工具。模型需要根据这个工具的输出来决策下一步的具体行动。

📌 核心经验:投入在优化工具和工具Prompt描述上的精力,与最终提升用户体验的精力,是1:1的。(这句话得是多么痛的领悟…
业务工具描述——像写API文档一样严谨
一个常见的失败模式是Agent遇到问题时,陷入无限循环调用。我们需要一个“熔断”机制,这和写普通代码的异常处理逻辑是相通的,另外给LLM的路径尽量用绝对路径等等
✅ 好的工具描述:
{
"name":"file_analyzer",
"description":"分析文件内容和结构。支持.txt, .csv, .json格式。文件大小限制10MB。",
"when_to_use":"当用户需要了解文件内容、格式或统计信息时使用",
"limitations":"不支持二进制文件,不能修改文件内容",
"input_schema":{
"properties":{
"file_path":{
"type":"string",
"description":"文件的绝对路径,例如:/home/user/data.csv"
}
}
}
}
❌ 糟糕的工具描述:
{
"name":"file_tool",
"description":"处理分析文件内容",
"input_schema":{
"properties":{
"path":"./data.csv"
"type":"string"
}
}
}
区别在哪里?好的描述告诉AI:
- 什么时候用我(使用场景)
- 我能做什么(功能边界)
- 我做不了什么(限制条件)
- 怎么用我(参数规范)
Step 3: Prompt设计——Agent的"行为准则"
系统级指令
# Agent核心工作流程
你是一个具备规划能力的AI助手。你的工作流程是:
1. **强制规划优先**:在调用任何业务工具前,必须先调用`think_and_plan`工具进行思考
2. **循环执行**:规划 → 执行 → 分析结果 → 重新规划,直到任务完成
3. **错误处理**:工具调用失败时,必须重新规划而不是盲目重试
4. **并行限制**:除非明确确认无依赖关系,否则禁止并行调用工具
记住:你不是一个急性子的实习生,而是一个深思熟虑的专业助手。
业务层补充
针对具体场景,我会添加更详细的指导,举个栗子:
# 数据分析场景特殊规则
- 处理数据前,必须先用数据概览工具检查格式和质量
- 发现数据问题时,要先清理再分析,不要带病作业
- 生成图表前,要确认数据的统计特征,避免误导性可视化
Step 4: 防循环与错误处理——给Agent装上"安全带"
在实际项目中,我遇到过Agent陷入死循环的情况。比如:
- 调用工具A失败
- 重新规划,还是调用工具A
- 再次失败,再次规划…
- 无限循环
解决方案:双层防护
硬性限制(写进代码):
# 伪代码
max_retries = 3
max_total_calls = 20
timeout = 300 # 5分钟
if consecutive_failures >= max_retries:
return "连续失败次数过多,请检查工具配置或联系技术支持"
if total_calls >= max_total_calls:
return "调用次数超限,任务可能过于复杂,建议分解后重试"
软性引导(写进 Prompt):
# 在think_and_plan工具中添加
"failure_analysis": {
"type": "string",
"description": "如果上一步失败,分析失败原因并调整策略。连续失败3次后必须寻求人工帮助,要求补充必要的上下文信息。"
}
四、争议与思考:工具 vs 纯推理
一个常见的问题是:我们能否用一个更强的推理模型,来代替think工具呢?
Anthropic的结论是:不能,至少目前不行。
在Claude 3.7上的实验表明,“思考工具 + 专用Prompt” 的效果,显著优于单纯依赖模型自身推理的模式。
可能的原因:
- 领域定制:工具的Prompt可以针对特定领域(如航空、金融)的思考模式进行深度定制和优化,这是通用推理模式无法比拟的。
- 上下文保留:工具调用会将每一次的思考过程(规划、反思)完整地保留在上下文中,形成一个清晰的逻辑链。而纯推理模型为了节省token,可能会在内部“遗忘”或删减中间的思考步骤。
- 可控性:工具调用是可控的、可追踪的,而模型内部推理对我们来说是黑盒。
这让我想起了软件工程中的一个原则:显式优于隐式。把思考过程显式化,总是比依赖黑盒推理更可靠。

结语:从"码农"到"AI架构师"
写到这里,我想分享一个感悟。
把“规划”显式化这件事很反直觉。毕竟人类的思维是隐性的、灵活的。但 Agent 是个偏执行型的东西,如果不给它立规矩,它就永远是个胡乱点技能的萌新。
毕竟“聪明”这件事,是在限制中长出来的。
我们未来的能力,也许不在于 Prompt 写得多 fancy,
而在于我们能不能把模糊的问题,变成清晰的链路;
把复杂的世界,变成模型可理解的认知场。
如何学习大模型 AI ?
我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

2025最新大模型学习路线
明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
大模型经典PDF书籍
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

配套大模型项目实战
所有视频教程所涉及的实战项目和项目源码等
博主介绍+AI项目案例集锦
MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。


这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

为什么要学习大模型?
2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

适合人群
- 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
- IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
- IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
- 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。

课程精彩瞬间
大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。
RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。
Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。
顶尖师资,深耕AI大模型前沿技术
实战专家亲授,让你少走弯路
一对一学习规划,职业生涯指导
- 真实商业项目实训
- 大厂绿色直通车
人才库优秀学员参与真实商业项目实训
以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调
大厂绿色直通车,冲击行业高薪岗位
文中涉及到的完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐







所有评论(0)