Agent 的上下文工程,非常详细收藏我这一篇就够了!
Anthropic最新文章探讨了AI Agent上下文工程的挑战与方法。文章指出,随着Agent进行多轮推理和长期决策,传统的提示工程已不足以管理复杂的动态上下文状态。文章提出即时检索、结构化元数据、压缩等解决方案,强调赋予Agent自主信息检索和记忆管理能力。同时对比了Roo-Code和Codex的设计理念差异:前者侧重构建强大个体,后者注重创建开放生态。Codex采用分层架构和智能压缩技术,通
Anthropic 在 9 月 30 号国庆前发布了一个关于 [AI Agent 的上下文工程](Effective context engineering for AI agents)的文章
"提示工程的主要关注点是如何编写有效的提示,特别是系统提示。然而,随着我们向工程更强大的 Agent 转变,这些 Agent 能够进行多轮推理并具备更长的时间视野,我们需要管理整个上下文状态(系统指令、工具、模型上下文协议(MCP)、外部数据、消息历史等)的策略"
也就是说在 Agent 的环境下,上下文工程面临了更复杂的状态

因为 Agent 的多步骤任务,所以 Agent 的相关上下文是动态的。这就带来了新的 一系列复杂的问题,如何有选择的把这个对话相关内容放入有限的上下文窗口就需要有一些方法来处理
这篇文章说了一些方法,包括:即时检索和自主检索、结构化元数据、压缩、结构化笔记和子智能体
概括来说就是:将 Agent 视为一个自主的、具有工具使用能力的实体,赋予它探索和检索信息的能力,并辅以压缩和记忆机制来管理上下文生命周期
这个听起来有点玄妙,实际上是代表了 Agent 构建的不同思路
最近我在对比 Roo-Code 和 OpenAI Codex 的时候,问了一个问题:
如果去掉 roo-code 对 vscode 的部分,仅仅从 agent 本身能力来看。和 codex 在设计理念上有什么不同
Gemini 回答我是这样:
如果我们把 VS Code 的部分去掉:
-
• Roo-Code 的内核是一个“重 Agent” 。它是一个精心设计的、自成体系的智能解决方案,强调功能的深度整合与一体化体验。它的设计目标是成为一个强大的、独立的决策核心。
-
• Codex 的内核是一个“轻协议” 。它的设计目标不是构建一个大而全的 Agent,而是创建一个开放、灵活的生态系统。它通过定义一个标准化的通信协议(MCP),将 Agent 的能力“服务化”,使得任何人都可以为它开发新的“大脑”。
因此,两者最根本的设计理念差异在于: Roo-Code 倾向于构建一个强大的“个体”,而 Codex 倾向于构建一个繁荣的“生态”
所以你会发现模型公司和应用公司做 Agent 在理念上的不同。模型公司认为要释放模型的能力,不要给模型增加约束,而是增加能力。具体的执行结果需要模型自主完成
虽然如此,上下文的准确性和动态性对 Agent 仍然至关重要。总结一下 Anthropic 和 Codex 的方法,包含以下几个共同点:
-
• 动态的信息获取
-
• 上下文压缩
-
• 环境感知
相对 Codex 而言, Anthropic 更为极致的依赖模型本身的智能来决定信息教唆策略。而 Codex 则使用了多种具体的结构化工程方法,来实现上下文增强能力
因为 Codex 是开源的,这些方法就可以看的更为具体一些
Codex 采用分层的上下文管理架构,包括三个组件
-
• TurnContext:代表单次对话轮次的完整环境
-
• ConversationHistory:负责管理和维护整个对话的历史记录
-
• EnvironmentContext:环境上下文信息
Codex中的三个核心上下文组件通过精心设计的协作机制,共同构建和维护了完整的对话环境。我让 Qwen 生成了一下三个组件的流程图,看上去还行

Codex 还有一个就是上下文压缩和重建,这个和 Anthropic 的理念也一样。当对话历史接近模型的上下文窗口限制时,系统会自动执行压缩任务 。用户也可以手动触发压缩过程,当然,我很少这么用
Codex 使用专门的摘要提示模板引导模型生成历史摘要
- 总结已完成的工作和尚需完成的内容。如果最近有 update_plan调用,请逐字重复其步骤。
- 列出未完成的待办事项,并附上文件路径/行号,以便于查找。
- 标记需要更多测试的代码(例如边界情况、性能、集成测试等)。
- 记录任何未解决的错误、怪异之处或设置步骤,以便下一个智能体能更容易地接手你留下的工作。
压缩方法执行以下操作:
-
1. 保留初始上下文(用户指令和环境信息)
-
2. 处理用户消息(过长时会截断)
-
3. 使用 HistoryBridgeTemplate 生成桥接消息,包含格式化的用户消息历史和模型生成的摘要文本
所谓桥接消息就是 Codex 系统在对话历史压缩过程中创建的一种特殊消息,它在压缩的历史记录和后续对话之间建立"桥梁",确保重要上下文信息被保留同时节省上下文窗口空间
桥接消息的 Prompt
你最初通过一轮或多轮对话收到了用户的指令。以下是用户的消息内容:
{{ user_messages_text }}
另一个语言模型已开始解决这个问题,并生成了其思考过程的摘要。你还可以访问该语言模型所使用工具的状态。请利用这些信息在已完成的工作基础上继续推进,避免重复劳动。以下是另一个语言模型生成的摘要,请运用其中的信息来辅助你完成分析:
{{ summary_text }}
桥接消息的生成主要步骤是,先搜集用户消息、如果消息过程,就进行中间截断,然后生成摘要。用模型把用户消息和桥接消息合在一起,放到历史消息中
最核心的作用就是减少内容,仅仅保留关键信息。那进行中间截断,不会丢失关键信息内容吗?
Codex 在做截断的时候,做了这么几件事:保留了完整的开始和结尾部分、采用换行符阶段,并且阶段标记,就是标记有些内容被截断了。
// 核心逻辑:保留开头和结尾,中间用标记代替
let mut out = String::with_capacity(marker_len + prefix_end + (s.len() - suffix_start) + 1);
out.push_str(&s[..prefix_end]); // 保留开头
out.push_str(&marker); // 添加截断标记
out.push('
');
out.push_str(&s[suffix_start..]); // 保留结尾
阶段后的内容可能是这样:
开头部分内容...
…X tokens truncated…
结尾部分内容...
这种设计确保了即使在消息需要截断的情况下,关键的开头和结尾信息依然能够得到保留,同时通过摘要提供整体上下文,有效平衡了信息保留和上下文效率的需求。
但是实际上,还是会丢失消息。因为毕竟有截断内容,所以完美的上下文压缩方案还需要优化
以上简单介绍了一下 Agent 上下文工程的一些做法,这块还是很快的发展中,Anthropic 因为不开源,无法让我们一窥究竟。期待更多厉害的 Agent 框架开源,让我们看看上下文应该怎么处理
AI大模型从0到精通全套学习大礼包
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
如果你也想通过学大模型技术去帮助就业和转行,可以点扫描下方👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!
01.从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
02.AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线


03.学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的

04.大模型面试题目详解


05.这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)