阅读《AI Engineering》笔记04 AI 工程师真正的技术栈
AI 工程不是“训练模型”,而是“把大模型变成真正可用的产品”。AI 工程三层技术栈应用开发(Prompt、RAG、界面、评测)模型开发(Finetune、数据、推理优化)基础设施(部署、监控、GPU 集群)AI 工程与 ML 工程的核心差异注重适配而不是训练模型更大 → 推理优化更重要输出开放 → 评测更重要工程链路更贴近产品 → 更依赖全栈能力未来 5 年最缺的人才,就是能搭建这一整套链路的A
为什么人人都在说“AI 工程”?一文带你看懂 AI 工程师真正的技术栈
过去两年,AI 工程像是坐上了火箭。新工具、新模型、新方法像潮水一样涌来——每天不刷两眼 GitHub,都怕错过什么时代红利。
但越是信息爆炸,越容易迷失。
其实,无论外界怎么变,AI 工程的底层结构始终清晰:它分为 3 层——应用开发、模型开发、基础设施。只要抓住这三层,就能看清整个 AI 工程体系。
这篇文章我会用最通俗、最工程师视角,带你快速理解:
-
AI 工程与传统 ML 工程到底有什么不同?
-
为什么很多团队从 “10 张卡” 突然要扩展到 “1000 张”?
-
Prompt 工程为什么能产生 10%~20% 的性能差异?
-
为什么说“会做前端的人,更适合做 AI 工程师”?
-
AI 工程的三层技术栈到底长什么样?
如果你正在转型、焦虑、想搞懂趋势,这篇文章会非常适合你。
01 AI 工程是怎么出现的?
很多公司原来只有 ML 团队,做的是传统机器学习:
-
训练模型
-
做特征工程
-
调参、上线、监控
但当大模型(ChatGPT、Stable Diffusion)出现后,情况变了:
你不需要自己训练模型,别人已经帮你训练好了。
你只需要会“用好”它。
于是,AI 工程从 ML 工程中“孵化”出来。
这就是为什么你会看到两种团队结构:
-
有的公司把 AI/ML 放在一起(职能高度重叠)
-
有的公司把 AI 工程师单独拿出来(偏工程、偏落地)
无论组织怎么分,AI 工程与 ML 工程确实既有重叠,也有巨大差异。
02 AI 工程的三层技术栈(非常关键)
这是看懂行业的核心。
AI 应用无论多炫酷,都可以拆成 3 层。
第一层:应用开发(Application Layer)—最卷、变化最快
这两年爆发的全是这一层:
-
各种 AI 应用(聊天、代码、搜索、写作、图像)
-
Prompt 工程
-
上下文构建
-
各种 UI/插件/ Agent 接口
-
各种评测 Benchmark
这一层的特点:
“人人都能做、变化最快、最容易创新。”
不用训练模型,只要给大模型:
-
设计一套指令(Prompt)
-
构建上下文(RAG、工具调用)
-
做评测、做 UI
你就能做一个能用的 AI 应用。
这也是为什么很多前端、全栈工程师能够快速转型。
第二层:模型开发(Model Layer)—需 ML 知识,但作用在变
模型开发包括:
-
模型训练、预训练
-
Finetune + LoRA
-
模型蒸馏、量化
-
数据集处理(去重、过滤、构建)
-
推理优化
与传统 ML 最大的不同:
以前 80% 的精力放在“训练模型”。
现在 80% 的精力放在“适配模型、优化推理”。
更像是:
-
以前是造发动机
-
现在是调校、改装、做场景适配
ML 知识依然重要,但不再是门槛。
第三层:基础设施(Infrastructure Layer)—最稳但最硬核
包括:
-
模型部署
-
GPU 集群管理
-
服务监控、日志、性能优化
-
数据/特征存储
-
高并发推理
随着模型越来越大,显卡需求从“几张”飙到“几千张”。
很多传统 ML 团队不会管理千卡集群,这成了新技能缺口。
03 AI 工程与 ML 工程到底有什么不一样?
总结成一句话:
AI 工程是 “用好别人训练好的模型” 的工程学。
差异主要体现在三个维度:
1. 少训练,多适配
传统 ML:
-
自己训模型,调算法
AI 工程:
-
用别人训好的模型
-
主要做 Prompt、RAG、Finetune
2. 模型更大、成本更高
模型从百万参数到千亿参数:
-
延迟更高
-
成本更高
-
推理要做量化/蒸馏/并行化
3. 输出是开放的(Open-ended) → 评测更难
传统 ML 类似考试选择题:
-
有标准答案
大模型像写作文:
-
“好不好”很难评
-
Prompt 不同结果能差 10% 以上
-
评测本身变成一门学问
因此:
评测在 AI 工程中变成了超级关键环节。
04 模型适配(Model Adaptation)是 AI 工程的灵魂
AI 工程主要的适配方式有两类:
1. Prompt Engineering(不改权重)
特点:
-
成本最低
-
最容易上手
-
适用大部分应用
-
性能可能随 Prompt 差异巨大
比如 Gemini 的 MMLU 分数,用 32-shot Prompt 可以从 83% 提到 90%。
这就是Prompt 的威力。
2. Finetuning(修改权重)
适合:
-
明确任务
-
高要求
-
需要风格化输出
-
需要领域适配
-
长期稳定性要求高
成本比 Prompt 高,但性能能提升非常显著。
05 为什么说“AI 工程更像全栈工程”?
大模型出现后,工程流程发生了质变:
传统流程:
数据 → 训练模型 → 部署 → 产品开发
新的流程:
产品 → 评测 → 适配模型 → 数据 → 优化
顺序反了。
这意味着:
会写前端 + 会读 API 文档 + 会评测的人,比会写算法的人更快做出产品。
这也是为什么大量前端/全栈工程师正在抢占 AI 工程师岗位。
LangChain.js、Transformers.js、Vercel AI SDK 的出现,就是这个趋势的直接体现。
06 总结:AI 工程正在重新定义工程师技能图谱
如果一句话总结这篇文章:
AI 工程不是“训练模型”,而是“把大模型变成真正可用的产品”。
要做到这一点,需要理解:
AI 工程三层技术栈
-
应用开发(Prompt、RAG、界面、评测)
-
模型开发(Finetune、数据、推理优化)
-
基础设施(部署、监控、GPU 集群)
AI 工程与 ML 工程的核心差异
-
注重适配而不是训练
-
模型更大 → 推理优化更重要
-
输出开放 → 评测更重要
-
工程链路更贴近产品 → 更依赖全栈能力
未来 5 年最缺的人才,就是能搭建这一整套链路的 AI 工程师。
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)