上下文工程(Context Engineering):是什么?与提示词工程有何不同?
上下文工程(Context Engineering):是什么?与提示词工程有何不同?
1、什么是上下文工程?
最近AI领域,一个叫“上下文工程(Context Engineering)”的概念热度飙升,连AI领域大咖Karpathy都公开表示关注,让它迅速成为讨论焦点。

这个概念的兴起,其实和AI Agent的成熟密不可分——当AI从“只会聊天”进化到“能动手做事”,上下文工程就成了必然产物。
在大语言模型(LLM)刚兴起时,大家用AI的核心场景是“对话”:用户写一段提示词(prompt),模型根据提示词输出回答,这就是我们熟悉的“提示词工程(Prompt Engineering)”。
但随着AI Agent的发展,情况变了:AI不再只是被动回答问题,而是能主动接下一个完整任务,自己规划步骤、调用工具、动态调整决策,最终把事情做完。比如帮你订好全程旅行计划(查机票、对比酒店、安排景点路线),或者自动处理客户投诉(查历史记录、对接售后、生成解决方案)。
这时候,LLM作为Agent的“大脑”,光靠一开始写好的静态提示词就不够了。它需要实时掌握环境状态(比如当前时间、可用工具是否在线)、任务进度(已完成哪步、还剩哪些难点)、历史数据(之前做过类似任务的经验)等各种“动态信息”。
要是模型拿不到关键信息,很可能在决策时“跑偏”,比如订机票时没考虑到用户的会员等级,导致选了不划算的航班,最终任务失败。
所以,在合适的时机,用合适的格式,给LLM准备好完成任务所需的所有信息,就成了AI Agent能否成功的关键——这就是上下文工程。
2、上下文里都包含哪些信息?
一个AI Agent的“上下文”就像人的“大脑内存+备忘录+工具箱”,具体可能包括这些内容:
-
指令/系统提示词:告诉LLM要扮演什么角色、遵守什么规则。比如“你是一个财务助手,必须用Excel格式输出报表,且不能泄露数据隐私”,也可能包含示例(比如“参考这个格式:日期|收入|支出|备注”)。
-
用户提示词:用户具体的需求,比如“帮我统计2024年Q2的部门差旅费,并分析超支原因”。
-
短时记忆:当前对话的实时记录,比如“用户刚才补充说‘只算国内差旅’,而模型上一步回复的是‘已统计全部差旅数据’”——这些即时信息能避免Agent“忘事”。

-
长时记忆:跨对话积累的“经验”,比如“用户过去3次统计差旅费时,都特别关注‘招待费’项目”“上次处理类似任务时,发现财务系统导出的Excel有格式错误,需要先修正”。
-
外部信息(RAG):通过检索拿到的实时数据,比如从公司数据库调取的“2024年Q2差旅报销原始凭证”、从网络爬取的“同行业差旅费平均标准”。
-
可用工具:Agent能调用的所有“帮手”,比如“可以用Python脚本处理Excel数据”“能对接财务系统API查实时报销状态”“能调用图表生成工具画趋势图”。
-
结构化输出约定:提前规定好模型输出的格式,比如“必须用JSON格式返回,包含‘总金额’‘超支项目’‘原因分析’三个字段”,避免输出混乱。
这些信息可能存在不同地方:短时记忆存在对话缓存里,长时记忆存在数据库中,外部信息需要实时从API或知识库调取,最终由Agent系统动态整合起来。
3、和提示词工程的核心区别是什么?
简单说,提示词工程是“写好一句话”,上下文工程是“搭好一个系统”。
提示词工程的核心是“设计优质提示词模板”。比如想让模型写一篇产品文案,你会写“请以‘年轻妈妈’为目标用户,突出产品‘安全无毒’的卖点,用活泼的语气写300字文案”——本质是通过精准的文字引导,让模型输出符合预期的内容。
而上下文工程要复杂得多:它不是写一句话,而是要搭建一套“动态信息供给系统”。比如让Agent完成“统计差旅费并分析超支原因”的任务,系统需要:
- 先判断“什么时候需要调用长时记忆”(比如一开始就调取用户过去关注的重点项目);
- 确定“用什么格式给工具信息”(比如给Python脚本的参数要写成字典格式,方便直接运行);
- 解决“信息太多装不下”的问题(比如对话历史太长时,自动压缩成“用户核心需求:统计Q2国内差旅费+分析超支”);
- 处理“外部信息获取”(比如发现差旅数据不全时,自动调用财务系统API补全)。
打个比方:提示词工程像给厨师一张“固定菜单”,让他按菜单做菜;上下文工程则像给厨师准备“实时更新的食材清单(外部信息)+ 顾客忌口记录(长时记忆)+ 厨房工具使用说明(可用工具)”,让他根据这些动态信息灵活调整做菜步骤。

4、如何实现上下文工程?
目前行业里还没有统一的标准,不同AI Agent框架(比如LangChain、AutoGPT)都有自己的“上下文管理逻辑”。不过LangChain最近在LangGraph中总结的4种策略,值得参考:
-
写入上下文(Write Context)
把任务中产生的关键信息“存档”,比如Agent和用户沟通后,自动把“用户强调‘只算部门经理的差旅费’”这句话存入长时记忆库,后面步骤就不会遗漏这个要求。 -
选择上下文(Select Context)
从“存档”中挑出当前需要的信息。比如开始分析超支原因时,系统会从长时记忆里调出“去年Q2的差旅费标准”,从外部知识库调取“同行业Q2差旅平均数据”,只把这些相关信息传给LLM。

-
压缩上下文(Compress Context)
当信息太多(超过模型的上下文窗口限制),就“精简打包”。比如原本100条对话历史,会被压缩成“用户需求:统计2024Q2国内部门经理差旅费,重点分析超支原因;已完成:调取了原始数据,发现交通费超支30%”。 -
隔离上下文(Isolate Context)
把复杂任务的信息“分区域存放”。比如处理“统计差旅费+生成汇报PPT”的任务时,系统会把“数据计算”相关的信息(原始数据、公式)和“PPT设计”相关的信息(用户喜欢的模板、领导关注的重点)分开存储,避免互相干扰。
总的来说,上下文工程是AI从“对话工具”升级为“自主做事的Agent”的关键技术。随着AI Agent应用越来越广(比如自动办公、智能客服、个性化助手),上下文工程的重要性还会持续提升——毕竟,能“灵活掌握信息”的AI,才能真正把事做好。
5、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】


6、为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


7、大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)