
Photo by Christin Hume on Unsplash
Runway Gen-4 提示词指南:如何获得最佳生成效果
学习如何为 Runway Gen-4 视频生成模型编写高效提示词。本指南涵盖主体运动、镜头运动、场景运动、风格描述符及最佳实践,助你生成高质量 AI 视频。
Runway Gen-4 是一款快速、灵活的 AI 视频生成模型,专为需要将 AI 生成内容无缝融入真实拍摄、动画或视效项目的创作者而设计。只需一张图片和一段文字描述,Gen-4 即可生成 5 秒或 10 秒的视频片段——视觉连贯、物理真实,可直接用于专业制作流程。
但和所有 AI 模型一样,输出质量直接取决于输入质量。本指南将系统讲解如何编写提示词,让 Gen-4 发挥出最佳表现——从基础原则到具体运动技巧,以及可直接套用的提示词结构。
从简单开始,逐步迭代
新用户最常犯的错误,就是在第一条提示词里堆满所有细节。Gen-4 实际上在简洁的提示词下表现更好——建议从最简单的描述出发,再逐步叠加复杂度。
先只写出场景中最核心的运动,确认效果后,再一次添加一个新元素:
- 主体运动 — 角色或物体做了什么
- 镜头运动 — 摄像机如何移动或固定
- 场景运动 — 环境如何响应或变化
- 风格描述符 — 整体视觉或电影基调
逐层叠加的方式能让你清楚看到每个要素对结果的影响,也让问题排查变得更加直接有效。
四大提示词要素
主体运动
主体运动是核心动作——角色或物体在物理层面做了什么,包括移动、手势、面部表情和反应等。
在描述角色时,使用"主体"或简单的代词,而不要重复图片中已有的外貌描述。模型已经从图片中获取了这些视觉信息,在提示词中重复往往会降低运动质量,甚至让模型混淆。
主体缓缓转向镜头,眯起眼睛抵抗风吹。当画面中有多个主体时,用清晰的位置或描述性词语来区分各自的动作:
左侧的人物蹲身躲在墙后。右侧的人物继续向前走,毫无察觉。场景运动
场景运动描述环境本身的动态——无论是对主体动作的反应,还是独立发生的变化。
触发场景运动有两种方式:
隐含运动 — 通过描述让环境自然反应:
主体在沙丘上全力奔跑。(隐含:扬尘、沙粒飞溅、风的扰动)
明确运动 — 直接描述环境应有的动态:
主体在沙丘上全力奔跑。细沙扬起,在身后形成一道尘云。隐含运动通常产生更自然的结果。如果效果不够明显,可以尝试多次强调,或直接用语言描述来加强。
镜头运动
镜头运动定义摄像机在场景中的移动方式。Gen-4 能理解标准的电影摄影术语,可以直接在提示词中使用。
以下是一些常用的镜头运动术语:
| 镜头运动 | 效果描述 |
|---|---|
锁定机位 | 无运动——静止、稳定的画面 |
手持摄影 | 轻微自然抖动,纪录片质感 |
推镜 | 平稳向主体方向前进 |
跟踪拍摄 | 摄像机随运动主体同步移动 |
慢速横摇 | 水平扫过场景 |
升降镜头 | 摄像机上升,逐渐展现更广阔的场景 |
示例:
手持摄像机跟随主体穿越拥挤的集市。运动自然流畅,在摊位间灵活穿行。风格描述符
风格描述符设定视频整体的视觉或运动语言,适合用来传达运动速度、渲染风格或电影类型——影响整体感受而非具体动作的元素。
慢动作。电影级真实质感。温暖的黄金时段光线。定格动画美学。运动略显跳帧但节奏刻意。风格描述符可以融入提示词主体,也可以在完成其他内容后作为收尾单独附加。
最佳实践
只使用正向描述
Gen-4 的设计目标是理解"应该发生什么",而非"不应该发生什么"。否定或禁止性语言(如"不要移动"、"不要抖动")往往产生不可预测的结果,甚至与预期相反。
❌ 避免:
没有镜头运动。摄像机不移动。完全静止。✅ 应该:
锁定机位。画面全程保持完全静止。直接描述物理动作
抽象或诗意的描述会迫使模型自行解读你的意图,这往往导致随机或意外的运动结果。始终将情感或概念性想法转化为具体的物理动作。
❌ 避免:
主体散发着温暖的气息,以开放的姿态欢迎来访者的到来。✅ 应该:
主体露出灿烂的笑容,张开双臂,将来访者拉入一个拥抱。聚焦运动,而非描述图片
输入图片已经告诉模型场景的视觉外观。文字提示词应专注于描述变化——事物如何运动、接下来发生什么、摄像机如何表现。
重复描述图片中已经可见的视觉细节(服装颜色、发色、场景布置),往往会削弱运动输出,或让模型过度关注外观而忽略动作。
❌ 避免:
那位卷发男士穿着灰色西装、棕色皮鞋,伸手与对方握手。✅ 应该:
男士伸出手臂握手,随后礼貌地点头致意。跳过对话式语言,专注场景描述
Gen-4 是视觉模型,不是对话系统。对话式语言("请帮我加上……"、"能不能……")和命令式语言("把狗加进画面")无法给模型提供足够的视觉信息。
如果你希望某个元素出现在场景中,描述它是如何进入画面的:
❌ 避免:
请在公园里加一只跑步的狗。✅ 应该:
一只金毛猎犬从画面左侧冲入,追着一颗在草地上滚动的网球。每次生成只做一个场景
Gen-4 生成的是 5 到 10 秒的短片——本质上是一个单镜头场景。把多个场景切换、风格转变或不相关的动作硬塞进一条提示词,会让模型顾此失彼,通常产生不稳定的输出。
每次生成专注于一个清晰的主要动作。
❌ 避免:
一只猫变成凤凰,飞越白天变黑夜的丛林,然后变成一艘在霓虹未来城市里潜行的潜艇。✅ 应该:
猫蹲伏在高草丛中,然后猛地跃起——随着它腾空,灿烂的橙色羽毛开始在身上蔓延。结合图片提示词使用
当你同时使用输入图片和文字提示词时,两者形成配合:图片负责视觉呈现,文字负责驱动运动。
几个关键原则:
- 把视觉工作交给图片 — 文字应完全专注于事物如何运动或变化
- 保持运动的合理性 — 符合物理逻辑的运动通常产生更干净的结果
- 加入镜头运动 — 即使主体几乎静止,镜头运动也能带来电影感
人像 / 角色动画:
主体缓缓将头转向镜头。一阵微风拂动发丝。表情微妙地变化——从平静转为若有所思的警惕。锁定机位,中景特写。环境动画:
风景动了起来——云朵从右向左缓缓漂移,投下移动的阴影覆盖山谷。一阵风掠过,高草起伏摇曳。锁定广角镜头。产品或物体展示:
摄像机围绕物体做平滑环绕运动,从正面移至四分之三后视角。柔和的棚拍灯光保持一致。主体静止,只有摄像机在移动。快速参考:提示词结构
以下是一个可以作为任何 Gen-4 提示词起点的简洁公式:
[主体] [动作/运动]。[场景环境的反应或变化]。[镜头运动]。[风格]。示例:
女子站在悬崖边缘,缓缓张开双臂。身后的大衣在强风中剧烈飘动。从全景缓缓推镜至中景。电影级真实质感。阴天自然光。在此基础上,根据需要逐层增加各要素的具体程度。
进阶技巧
- 先写运动,再写外观。 Gen-4 不需要你描述外观——它需要知道事物如何运动。
- 用固定性语言描述静止镜头。 "锁定"、"静止"、"画面保持不动"远比"没有镜头运动"更可靠。
- 用形容词暗示环境反应。 "尘土飞扬"、"薄雾弥漫"、"风中摇曳"等词汇能自然触发场景运动。
- 一次生成,一个场景。 把每段 5-10 秒的片段视为单个镜头,多镜头序列分开生成。
- 分层迭代。 每次只改变一个要素,方便判断哪些调整有效。
- 提示词长度匹配场景复杂度。 简单的风景动画可能只需三行;带有特定动作的角色场景可能需要八行。不要过度描述,也不要描述不足。
- 用"主体"作为默认角色称呼。 这能让模型专注于运动,而不是重新解读外观。
总结
Gen-4 是一款功能强大的工具——和大多数强大工具一样,它奖励清晰与意图明确的输入。效果最好的提示词不是最长或最详细的,而是以正确顺序传达了正确信息的:什么在运动、如何运动、摄像机如何表现、整体视觉语言是什么。
从简单开始,有条理地迭代。让文字聚焦在运动上,把视觉工作交给图片——你的提示词的职责是让事物动起来,而不是重新描述已有的画面。
掌握这套方法,Gen-4 完全可以生成足以媲美专业真实拍摄和视效制作的视频内容。
更多文章

Seedance 2.0 提示词指南:技巧、方法与提示词模板
关于 Seedance AI 的全面指南——字节跳动视频生成模型。涵盖 Seedance 1.0 与 2.0 对比、bytedance/seedance-v1-pro-i2v-480p API 使用方法,以及附带可复制模板的专业提示词技巧。


OpenAI为何关闭Sora:突然退出背后的真实原因
OpenAI于2026年3月突然关闭旗下热门AI视频应用Sora,终止了一项价值10亿美元的迪士尼合作协议,也引发了外界对AI视频生成未来走向的广泛讨论。以下是三个真实原因。


OpenAI Sora 2 完整提示词指南:技巧、方法与模板
一份全面、实用的 OpenAI Sora 2 视频生成模型提示词编写指南。包含可直接复制的电影场景、对话、图片输入、混音迭代等提示词模板。

等待列表
抢先体验
成为第一批体验 AcceptPrompt 的用户。注册以获取早期访问和独家更新。
成为第一批体验用户。免费抢先体验,订阅即享五折优惠,绝不发送垃圾邮件。