前天,OpenAI发布GPT4.1,还额外上线了一份提示词指南。内容上主要是针对 新版GPT4.1模型的特点,教大伙如何优化提示词,进而构建出更好的Agent。

图片

GPT-4.1 虽然在编码、指令遵循和长上下文能力上比前辈 GPT-4o 有了显著提升,但也带了点“小个性”——它变得更“听话”了,严格甚至可以说是“字面地”理解你的指令,不再像以前那样擅长“揣摩上意”。这意味着,我们以前用得顺手的 Prompt 可能需要调整,否则效果可能会打折扣。

为什么出了一份新的提示词指南?

简单来说,GPT-4.1 有两大变化:

  • 能力更强:编码、指令遵循、长上下文处理能力都上了一个台阶。

  • 遵循指令更严格:它不会猜你想干啥,你说什么它就做什么。好处是可控性高,坏处是模糊指令可能导致奇怪结果

正是因为这个“严格”,过去的很多 Prompt "最佳实践"可能需要更新。

如何榨干GPT-4.1的潜力?

构建更强 Agent 的三个要素

指南一上来就强调,GPT-4.1特别适合构建Agentic工作流。OpenAI内部的Agent测试在SWE-bench上解决了55%的问题,表现还不错!要充分利用它的Agent能力,system prompt中必须加入三个核心要素,这3条可以让SWE-bench评测提高20%~

图片

Persistence (持久性)

告诉模型这是个多轮任务,需要一直工作到问题解决,不是回答一句就完事。

官方示例 Prompt:  (翻译了一下)

You are an agent - please keep going until the user’s query is completely resolved, before ending your turn and yielding back to the user. Only terminate your turn when you are sure that the problem is solved.

-> 

你是一个智能助手 - 请持续工作直到用户的问题完全解决,再结束你的回合。只有当你确定问题已解决才停止。

Tool-calling (工具调用)

鼓励模型在不确定时主动用工具查询,而不是瞎猜

官方示例 Prompt:  (翻译了一下)

If you are not sure about file content or codebase structure pertaining to the user’s request, use your tools to read files and gather the relevant information: do NOT guess or make up an answer.

->

如果你不确定文件内容或代码结构,请使用工具查询相关信息:绝对不要猜测或编造答案。

Planning (规划)

引导模型在每次调用工具前先规划,调用后再反思。这能让模型“把思考过程说出来”,提高解决问题的能力。(4.1不是推理模型),可以提高4% swe-bench。

图片

官方示例 Prompt:  (翻译了一下)

You MUST plan extensively before each function call, and reflect extensively on the outcomes of the previous function calls. DO NOT do this entire process by making function calls only, as this can impair your ability to solve the problem and think insightfully.

->

你必须在每次函数调用前进行详细规划,并在调用后对结果进行深入反思。不要只依靠函数调用解决整个问题,这会削弱你的思考能力。

工具调用的正确姿势

除了系统提示,指南还强调了工具调用的正确姿势:

  • 强烈建议用API的tools字段:别再手动在提示词里塞工具描述了!官方测试表明,通过API传递工具定义,可以减少错误,让模型表现更好(SWE-bench 提升 2%)。

  • 起个好名字,写清楚用途:工具名称和描述要清晰明了,参数也一样,这能帮模型正确使用工具。

  • 复杂工具用法放例子里:如果工具比较复杂,最好在系统提示中专门开个"# Example"部分,保持描述简洁。

图片

prompt 编写的艺术

前面说了,GPT-4.1 对指令的理解非常字面化。这要求我们的指令必须极其清晰、具体、无歧义。含糊不清或者依赖模型“悟性”的指令,效果会大打折扣。

推荐的指令编写流程

  • 先给出整体要求:用"指令"或"回复规则"标题列出基本要求

  • 分点说明细节:针对具体行为用子标题详细说明

  • 明确步骤顺序:如需按特定流程操作,用有序列表明确标出

  • 调试与优化:

    • 检查指令间是否矛盾(GPT-4.1倾向于听后面的指令)

    • 提供清晰的例子演示你想要的结果

    • 谨慎使用全大写、感叹号等强调手段,可能导致模型过度关注这些点

常见的坑和解决办法:

  • “必须XXX”陷阱:比如强制要求“每次回复前必须调用工具”,可能导致模型乱调用。解决方法:补充说明“信息不足时先询问用户”。

  • “照搬示例”问题:模型可能直接复制你给的例子。解决方法:明确说明“参考但不限于这些例子,根据情况灵活调整"。

  • “话太多”问题:有时模型会输出太多解释或不必要的格式。解决方法:在指令中明确要求简洁和具体格式”。

指南中那个复杂的客服 Agent 例子就很好地体现了这些原则:规则详细具体、分层组织、并有示例佐证。

玩转长上下文与思维链

长上下文处理

图片

  • GPT-4.1支持高达1M token的上下文,擅长处理长文档

  • 能力边界:虽然基础能力强,但在需要从海量信息中检索很多信息,或者进行需要全局信息的复杂推理时,性能可能会下降。

  • 最佳实践:把指令同时放在上下文的开头和结尾各重复一次

  • 可以明确指示模型是只能用你提供的信息回答,还是可以结合自身知识库

思维链

引导模型像人一样“思考”,把复杂问题分解成小步骤解决

简单的思维链指令:

        ...First, think carefully step by step about what documents are needed to answer the query. Then, print out the TITLE and ID of each document. Then, format the IDs into a list.

->

    ...首先,仔细逐步思考需要哪些文档来回答查询。然后,列出每个文档的标题和ID。最后,将ID格式化为列表。
    

进阶 CoT:如果发现模型思考过程有偏差,可以通过更具体的指令来规范它的思考策略。比如,指南里给了一个例子,要求模型先做查询分析 (Query Analysis),再做上下文分析 (Context Analysis),最后综合 (Synthesis)。

其他实用建议

推荐的 Prompt 结构模板

# Role and Objective
# Instructions
## Sub-categories for more detailed instructions
# Reasoning Steps (e.g., Chain of Thought instructions)
# Output Format
# Examples
## Example 1
# Context (if any)
# Final instructions and prompt to think step by step (e.g., the CoT starter)

-> 

# 角色和目标
# 指令
## 更详细指令的子类别
# 思考步骤(如思考链指令)
# 输出格式
# 示例
## 示例1
# 上下文(如有)
# 最终指令和逐步思考提示
  

分隔符的选择

  • 首选Markdown:标题、列表、代码块等,清晰直观

  • XML也不错:适合精确包裹内容,便于嵌套

  • JSON相对繁琐:结构强但在提示词中可能需要转义

  • 长文档场景:XML  (<doc id=1 title=”...”>...</doc>) 和类表格 (ID: 1 | TITLE: ... | CONTENT: ...) 格式效果好,JSON表现较差

 一、大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

二、如何学习大模型 AI ?


🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

 

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

*   大模型 AI 能干什么?
*   大模型是怎样获得「智能」的?
*   用好 AI 的核心心法
*   大模型应用业务架构
*   大模型应用技术架构
*   代码示例:向 GPT-3.5 灌入新知识
*   提示工程的意义和核心思想
*   Prompt 典型构成
*   指令调优方法论
*   思维链和思维树
*   Prompt 攻击和防范
*   …

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

*   为什么要做 RAG
*   搭建一个简单的 ChatPDF
*   检索的基础概念
*   什么是向量表示(Embeddings)
*   向量数据库与向量检索
*   基于向量检索的 RAG
*   搭建 RAG 系统的扩展知识
*   混合检索与 RAG-Fusion 简介
*   向量模型本地部署
*   …

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

*   为什么要做 RAG
*   什么是模型
*   什么是模型训练
*   求解器 & 损失函数简介
*   小实验2:手写一个简单的神经网络并训练它
*   什么是训练/预训练/微调/轻量化微调
*   Transformer结构简介
*   轻量化微调
*   实验数据集的构建
*   …

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

*   硬件选型
*   带你了解全球大模型
*   使用国产大模型服务
*   搭建 OpenAI 代理
*   热身:基于阿里云 PAI 部署 Stable Diffusion
*   在本地计算机运行大模型
*   大模型的私有化部署
*   基于 vLLM 部署大模型
*   案例:如何优雅地在阿里云私有部署开源大模型
*   部署一套开源 LLM 项目
*   内容安全
*   互联网信息服务算法备案
*   …

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐