Seedance 2.0 保姆级实操教程:从入门到「AI导演」模式
Seedance 2.0 是字节跳动最新出品的多模态 AI 视频生成工具,堪称目前最强的 AI 视频生成模型之一。它支持同时输入图片、视频、音频、文字四种素材,能够生成最长 15 秒的高质量视频,并自带音效和配乐。你可以把它理解为一个听得懂自然语言的 AI 导演助手:你负责想象,它负责实现。
Seedance 2.0 保姆级实操教程:从入门到「AI导演」模式
Seedance 2.0 是字节跳动最新出品的多模态 AI 视频生成工具,堪称目前最强的 AI 视频生成模型之一。它支持同时输入图片、视频、音频、文字四种素材,能够生成最长 15 秒的高质量视频,并自带音效和配乐。你可以把它理解为一个听得懂自然语言的 AI 导演助手:你负责想象,它负责实现。
一、核心参数速查表(建议收藏)
在开始之前,先了解一下 Seedance 2.0 的「能力边界」,有助于你更精确地控制生成结果。
| 参数 | 规格/限制 | 说明 |
|---|---|---|
| 视频长度 | 最长 15 秒 | 支持 4s、8s、12s、15s 等档位 |
| 输入模态 | 图/文/视/音 | 全模态混合输入 |
| 文件上限 | 12 个 | 包含图片、视频和音频的总和 |
| 图片上限 | 最多 9 张 | 可指定角色、风格等 |
| 视频上限 | 最多 3 段 | 可参考运镜、动作 |
| 音频上限 | 最多 3 段 | 可匹配节奏、氛围 |
| 分辨率 | 最高 1080P | 默认为 720P,可 upscale 到 2K |
| 特有功能 | 「@」指令 | 精确控制每个素材的用途 |
💡 注意:虽然支持最多 12 个文件,但建议优先上传对画面和节奏影响最大的核心素材,避免信息过载导致 AI 混淆。少即是多。
二、使用入口一览
Seedance 2.0 在不同平台有不同入口,可根据需求选择:
| 入口 | 特点 | 适用人群 |
|---|---|---|
| 即梦网页版 | 功能最全,参数最细 | 专业创作者、电脑端用户 |
| 豆包 App | 免费额度最多,手机最快 | 日常创作、移动端用户 |
| 小云雀 | 移动端友好,支持直接粘贴抖音链接 | 短视频创作者 |
| 火山方舟 | API 调用,适合开发者 | 批量生产、自动化 |
三、两种模式,怎么选?
即梦 AI 中的 Seedance 2.0 提供了两个入口,分别对应不同的创作需求:
1️⃣ 首尾帧模式(新手入门)
-
评价:最简单的起步方式,适合新手第一次尝试,快速体验「图生视频」
-
用法:上传图片 → 写 Prompt → 生成
-
适用场景:你只有一张首帧图(或尾帧图)+ 文字提示词
-
适合:练手、验证创意、单镜头测试
2️⃣ 全能参考模式(⭐ 进阶推荐)
-
评价:这是 Seedance 2.0 的核心玩法,能解锁全部导演能力,实现复杂的镜头调度和角色一致性
-
用法:上传多种素材 → 用
@素材名指定每个素材的用途 → 写 Prompt → 生成 -
适用场景:需要混合输入图片 + 视频 + 音频 + 文字,追求精确控制
-
适合:角色一致性、运镜复刻、音乐卡点、广告片等
四、「@」语法:Seedance 2.0 的灵魂操作
在全能参考模式下,你需要用 @ 符号告诉模型每个素材的具体用途。这是整个 2.0 交互的精髓。
怎么用?
-
方法一:在输入框直接打
@,会自动弹出已上传的素材列表,点选即可 -
方法二:点击工具栏的
@按钮,选择素材插入到输入框中
示例用法
@图片1 为角色外貌,参考 @视频1 的跟拍运镜,配合 @音频1 节奏
五、新手快速上手三步走
如果你是第一次使用,建议按这个路径进阶:
Step 1(练手):试玩「首尾帧」模式
-
准备一张好看的图 + 一句简单描述,体验基础的图生视频
Step 2(进阶):试玩「全能参考」模式
-
加一段参考视频,用
@语法指令「参考这个视频的动作」,体验神奇的动作复刻
Step 3(大师):挑战「全模态组合」
-
图 + 视频 + 音频一起上,像导演一样用
@分配角色、动作和 BGM,掌控全场
六、六大实战案例(直接抄作业)
下面整理了 6 个最常用的实战场景,Prompt 可以直接套用微调:
🎯 案例 1:基础图生视频
场景:让一张静态的人物图动起来,并演绎特定剧情
Prompt:
画里面的人物心虚的表情,眼睛左右看了看探出画框,快速的将手伸出画框拿起可乐喝了一口,然后露出一脸满足的表情…画面最下方出现艺术感字幕和旁白:「宜口可乐,不可不尝!」
🎯 案例 2:角色一致性 + 双人互动
场景:保持两个角色的样貌,生成一段有剧情的对手戏 素材:2 张人物参考图
Prompt:
这两张图片是一段悬崖对手戏的两个女主,请围绕两个女主,生成一段流畅的红衣女子东方不败与黑衣女刺客二人对手戏的画面…仅生成打斗音效和环境的音效,不要配背景音乐…
🎯 案例 3:动作复刻(图 + 参考视频)
场景:想让自己的角色跳出特定的舞蹈,但不想自己调动作 素材:1 张角色图 + 1 段舞蹈视频
Prompt:
@图片1 的女星作为主体,运镜方式参考 @视频1 进行有节奏的推拉摇移,女星的动作也参考 @视频1 中女子的舞蹈动作,在舞台上活力十足地表演。
🎯 案例 4:全模态组合(图+视+音)
场景:最复杂的导演模式,指定角色、参考动作、匹配 BGM 素材:1 张图 + 1 段视频 + 1 段音频
Prompt:
参考 @视频1 的人物动作和运镜手法,生成 @图片1 中黑衣人物在竹林将飞刀掷出的视频…起始帧的视角景别严格参照 @视频1…仅生成打斗音效和环境音效,并加入背景音乐 @音频1。
🎯 案例 5:视频无限延长
场景:觉得生成的视频太短,想接着刚才的结尾继续拍 素材:1 段已有视频
Prompt:
将 @视频1 延长15秒。1-5秒:光影透过百叶窗… 6-10秒:一粒咖啡豆轻轻飘落… 11-15秒:英文渐显字幕…
💡 注意:生成时长应设置为你要新增的时长
🎯 案例 6:视频局部编辑
场景:只改发型或背景,不动其他画面 素材:1 段视频 + 1 张元素图
Prompt:
将 @视频1 女人发型变成红色长发,@图片1 中的大白鲨缓缓浮出半个脑袋,在她身后。
七、Seedance 2.0 十大核心能力升级
基于官方文档与实测,这 10 点升级是 2.0 版本的杀手锏:
-
音乐卡点:能自动根据音频节奏对齐画面动作(AMV 神器)
-
视频编辑:支持换人、增删片段、调整节奏
-
一镜到底:长镜头连贯性增强,不易断裂
-
音效升级:自带的音效和配乐质量显著提高,更贴合画面
-
平滑延长:告别生硬拼接,延长部分自然衔接
-
剧情补全:不仅是生成画面,还能充当「AI 编剧」补全剧情
-
创意模板/特效:能识别广告片、电影的节奏并复刻
-
精准运镜复刻:直接「抄」参考视频的运镜,无需学专业术语
-
一致性飞跃:人脸不崩、商品不换、文字不乱
-
基础画质大幅提升:物理规律更合理,光影更自然
八、参数设置建议
不同平台参数可能略有差异,以下是通用起步值:
| 场景 | 比例 | 分辨率 | 时长 | 建议 |
|---|---|---|---|---|
| 社媒竖屏剧情 | 9:16 | 720p | 5-8s | 先保运动稳定,再升清晰度 |
| 产品广告 | 16:9 | 1080p | 8-12s | 先锁产品外观一致,再做镜头运动 |
| 人物特写 | 3:4 或 1:1 | 720p/1080p | 5-8s | 强约束脸部一致与肤色自然 |
| 预告片镜头 | 21:9 或 16:9 | 1080p | 8-12s | 强调镜头轨迹与光影层次 |
九、迭代闭环(真正决定出片率)
把每次迭代当成实验,不要一口气改 5 个变量。推荐 4 轮:
-
声音轮:只改音频风格与强度
-
质感轮:只改光线、材质、色调
-
运动轮:只改动作与镜头运动
-
构图轮:只看主体、背景、比例是否正确
每轮保留最佳版本并记录「改了什么 → 结果如何」,你会很快形成自己的提示词资产库。
十、常见问题 FAQ
Q:没有音频素材怎么办? A:可以直接参考视频里的声音,或者让模型自动生成,不需要强制上传。
Q:12 个文件上限怎么分配? A:少即是多。建议 3-5 张关键图 + 1-2 个参考视频 + 1 个音频,留出计算余量,效果往往更好。
Q:如何从「描述者」切换到「导演」思维? A:不再视频做完再配音 → 改为「动作与 @Audio1 节奏同步」;不再硬写复杂运镜 → 改为「参考 @视频1 的镜头轨迹」;不再死磕文字描外观 → 改为「主体是 @图片1 中的对象」。
Q:角色漂移怎么办? A:先删风格参考,保留身份参考重跑;增加身份描述,减少风格干扰。
参考资料
-
即梦 AI(Dreamina):https://dreamina.capcut.com/
-
ByteDance Seed 官方页:https://seed.bytedance.com/
-
详细提示词技巧见同目录下
Seedance提示词技巧.md
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐

所有评论(0)