你有没有遇到过这种情况?

同样一个问题,问不同大模型,答案忽好忽坏
有时结果很“聪明”,有时却离谱到怀疑人生

其实问题不在模型,而在你怎么提问

今天分享两个真正能显著提升 AI“智商”的技巧:
👉 Step-back Prompting(退一步提示法)
👉 Chain of Thought(思维链提示法)

只要掌握这两个方法,你写 Prompt 的水平会直接上一个台阶。


一、为什么“直接提问”容易翻车?

传统方式是这样:

“帮我写一个 FPS 游戏关卡的故事。”

结果通常是:

  • 很随机

  • 很泛泛

  • 没什么深度

原因很简单
模型没有“预热思维”,直接就开始胡编了。

就像让一个人刚睡醒就写小说,质量怎么可能稳定?


二、Step-back Prompting:先退一步,让模型“热身”

这个方法的核心很简单:

先问一个更“宏观”的问题 →
再用这个答案作为背景 →
最后让模型完成具体任务

传统方式(效果一般)

Prompt:

写一个 FPS 游戏关卡故事。

结果:
泛泛而谈,很套路。


进阶方式:Step-back Prompting

第一步:先让模型思考“框架”

基于流行的 FPS 游戏,请给出 5 种适合做关卡背景的虚构场景。

模型会给出答案,比如:

  1. 废弃军事基地

  2. 赛博朋克城市

  3. 外星飞船

  4. 丧尸小镇

  5. 水下研究基地


第二步:再让模型写故事(带上下文)

Prompt 变成:

已知 5 种场景类型如下:……
请选择其中一个,写一个 FPS 游戏关卡故事。

结果:

故事立刻变得:

✅ 更有画面感
✅ 更有结构
✅ 更有张力

这就是 Step-back 的魔力:
先让模型进入“思考状态”,再让它输出内容。


一句话总结 Step-back

✅ 先问“大方向”
✅ 再做“具体任务”
✅ 让模型自动调用更多隐性知识


三、Chain of Thought(思维链):让模型“边想边说”

你是不是遇到过这种情况?

问一个数学题:

我 3 岁时,伴侣是我 3 倍年龄,现在我 20 岁,他几岁?

模型居然回答:

63 岁

离谱。

为什么?
因为模型没有被要求思考过程,它直接猜答案。


普通问法(容易翻车)

Prompt:

直接给我答案。

模型:“随便猜一个。”


正确方式:强制模型“逐步思考”

只加一句话:

Let's think step by step.

神奇的事情发生了:

模型开始:

  1. 先算当年年龄差

  2. 再算年龄增长

  3. 最后得出正确答案

正确结果:

✅ 26 岁


升级玩法:Few-shot 扔给模型一个思考模板

你可以这样问:

Q: 例题…
A: 详细思考过程…

Q: 新问题…
A:

模型会自动模仿你的思考方式

这就是:用案例教模型怎么“想问题”


四、这两个技巧适合用在哪?

这不是只适合写故事:

✅ 写代码(先让模型规划结构)
✅ 写方案(先让模型列策略框架)
✅ 复杂逻辑题
✅ 产品文案
✅ 技术写作

凡是可以拆步骤思考的任务,都适合这两个技巧。


五、懒人总结:直接用这套万能模板

你可以直接套用这一版 Prompt:

在回答下面问题之前,请先总结这一类问题的通用思路,
然后再根据这个思路一步一步给出答案。

或者:

Let's think step by step.

最后一句掏心窝的话

很多人以为自己“会用 AI”,
其实只是会“跟 AI 聊天”。

真正的高手,是教会 AI 怎么思考

如果这篇对你有帮助,欢迎点赞 + 收藏。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐