OpenClaw 代理可以根据文本提示、参考图像或现有视频生成视频。支持十六个提供商后端,每个后端都有不同的模型选项、输入模式和功能集。代理会根据你的配置和可用的 API 密钥自动选择合适的提供商。Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
只有在至少有一个视频生成提供商可用时,
video_generate 工具才会显示。如果你在代理工具中看不到它,请设置提供商 API 密钥或配置 agents.defaults.videoGenerationModel。generate— 不包含参考媒体的文本生成视频请求。imageToVideo— 请求包含一个或多个参考图像。videoToVideo— 请求包含一个或多个参考视频。
action=list 中报告支持的模式。
快速开始
异步生成的工作方式
视频生成是异步的。当代理在一个会话中调用video_generate 时:
- OpenClaw 将请求提交给提供商,并立即返回一个任务 ID。
- 提供商在后台处理该任务(通常需要 30 秒到 5 分钟,具体取决于提供商和分辨率)。
- 视频准备就绪后,OpenClaw 会通过内部完成事件唤醒同一会话。
- 代理会把生成完成的视频发布回原始对话中。
video_generate 会返回当前任务状态,而不是启动另一个生成任务。使用 openclaw tasks list 或 openclaw tasks show <taskId> 可在 CLI 中查看进度。
在基于会话的代理运行之外(例如直接调用工具时),该工具会回退为内联生成,并在同一轮返回最终媒体路径。
当提供商返回字节数据时,生成的视频文件会保存在 OpenClaw 管理的媒体存储中。默认的生成视频保存上限遵循视频媒体限制,而 agents.defaults.mediaMaxMb 会将其提升以支持更大的渲染结果。当提供商还返回托管输出 URL 时,如果本地持久化因文件过大而拒绝保存,OpenClaw 可以交付该 URL 而不是使任务失败。
任务生命周期
| 状态 | 含义 |
|---|---|
queued | 任务已创建,正在等待提供商接受。 |
running | 提供商正在处理(通常需要 30 秒到 5 分钟,具体取决于提供商和分辨率)。 |
succeeded | 视频已就绪;代理被唤醒并将其发布到对话中。 |
failed | 提供商错误或超时;代理被唤醒并附带错误详情。 |
queued 或 running 状态,video_generate 会返回现有任务状态,而不是启动新的任务。使用 action: "status" 可显式检查而不会触发新的生成。
支持的提供商
| 提供商 | 默认模型 | 文本 | 图像参考 | 视频参考 | 认证 |
|---|---|---|---|---|---|
| Alibaba | wan2.6-t2v | ✓ | 是(远程 URL) | 是(远程 URL) | MODELSTUDIO_API_KEY |
| BytePlus (1.0) | seedance-1-0-pro-250528 | ✓ | 最多 2 张图像(仅 I2V 模型;首帧 + 末帧) | — | BYTEPLUS_API_KEY |
| BytePlus Seedance 1.5 | seedance-1-5-pro-251215 | ✓ | 最多 2 张图像(通过角色指定首帧 + 末帧) | — | BYTEPLUS_API_KEY |
| BytePlus Seedance 2.0 | dreamina-seedance-2-0-260128 | ✓ | 最多 9 张参考图像 | 最多 3 个视频 | BYTEPLUS_API_KEY |
| ComfyUI | workflow | ✓ | 1 张图像 | — | COMFY_API_KEY 或 COMFY_CLOUD_API_KEY |
| DeepInfra | Pixverse/Pixverse-T2V | ✓ | — | — | DEEPINFRA_API_KEY |
| fal | fal-ai/minimax/video-01-live | ✓ | 1 张图像;使用 Seedance reference-to-video 时最多 9 张 | 使用 Seedance reference-to-video 时最多 3 个视频 | FAL_KEY |
veo-3.1-fast-generate-preview | ✓ | 1 张图像 | 1 个视频 | GEMINI_API_KEY | |
| MiniMax | MiniMax-Hailuo-2.3 | ✓ | 1 张图像 | — | MINIMAX_API_KEY 或 MiniMax OAuth |
| OpenAI | sora-2 | ✓ | 1 张图像 | 1 个视频 | OPENAI_API_KEY |
| OpenRouter | google/veo-3.1-fast | ✓ | 最多 4 张图像(首帧/末帧或参考图) | — | OPENROUTER_API_KEY |
| Qwen | wan2.6-t2v | ✓ | 是(远程 URL) | 是(远程 URL) | QWEN_API_KEY |
| Runway | gen4.5 | ✓ | 1 张图像 | 1 个视频 | RUNWAYML_API_SECRET |
| Together | Wan-AI/Wan2.2-T2V-A14B | ✓ | 1 张图像 | — | TOGETHER_API_KEY |
| Vydra | veo3 | ✓ | 1 张图像(kling) | — | VYDRA_API_KEY |
| xAI | grok-imagine-video | ✓ | 1 张首帧图像或最多 7 个 reference_images | 1 个视频 | XAI_API_KEY |
video_generate action=list 可在运行时检查可用的提供商、模型和运行模式。
功能矩阵
video_generate、契约测试和共享 live sweep 使用的显式模式契约:
| 提供商 | generate | imageToVideo | videoToVideo | 当前共享 live 线路 |
|---|---|---|---|---|
| Alibaba | ✓ | ✓ | ✓ | generate、imageToVideo;跳过 videoToVideo,因为该提供商需要远程 http(s) 视频 URL |
| BytePlus | ✓ | ✓ | — | generate、imageToVideo |
| ComfyUI | ✓ | ✓ | — | 不在共享 sweep 中;工作流相关覆盖在 Comfy 测试中 |
| DeepInfra | ✓ | — | — | generate;捆绑契约中的原生 DeepInfra 视频 schema 为文本生成视频 |
| fal | ✓ | ✓ | ✓ | generate、imageToVideo;仅在使用 Seedance reference-to-video 时支持 videoToVideo |
| ✓ | ✓ | ✓ | generate、imageToVideo;共享的 videoToVideo 被跳过,因为当前基于缓冲区的 Gemini/Veo sweep 不接受该输入 | |
| MiniMax | ✓ | ✓ | — | generate、imageToVideo |
| OpenAI | ✓ | ✓ | ✓ | generate、imageToVideo;共享的 videoToVideo 被跳过,因为当前该组织/输入路径需要提供商侧的 inpaint/remix 访问 |
| OpenRouter | ✓ | ✓ | — | generate、imageToVideo |
| Qwen | ✓ | ✓ | ✓ | generate、imageToVideo;跳过 videoToVideo,因为该提供商需要远程 http(s) 视频 URL |
| Runway | ✓ | ✓ | ✓ | generate、imageToVideo;仅当所选模型为 runway/gen4_aleph 时才运行 videoToVideo |
| Together | ✓ | ✓ | — | generate、imageToVideo |
| Vydra | ✓ | ✓ | — | 不适用于共享 sweep;捆绑的 veo3 仅支持文本,而捆绑的 kling 需要远程图像 URL |
| xAI | ✓ | ✓ | ✓ | generate、imageToVideo;跳过 videoToVideo,因为该提供商当前需要远程 MP4 URL |
工具参数
必需
用于生成视频的文本描述。
action: "generate" 时必填。内容输入
单张参考图像(路径或 URL)。
多张参考图像(最多 9 张)。
可选的按位置角色提示,与合并后的图像列表一一对应。
规范值:
first_frame、last_frame、reference_image。单个参考视频(路径或 URL)。
多个参考视频(最多 4 个)。
可选的按位置角色提示,与合并后的视频列表一一对应。
规范值:
reference_video。单个参考音频(路径或 URL)。当提供方支持音频输入时,用于背景音乐或语音参考。
多个参考音频(最多 3 个)。
可选的按位置角色提示,与合并后的音频列表一一对应。
规范值:
reference_audio。角色提示会原样转发给提供方。规范值来自
VideoGenerationAssetRole 联合类型,但提供方可能接受额外的
角色字符串。*Roles 数组中的条目数不得超过相应参考列表的
条目数;越界会报出清晰的错误。使用空字符串可将某个位置留空。
对于 xAI,将每个图像角色都设为 reference_image 可使用其
reference_images 生成模式;若为单张图像转视频,则省略角色或使用
first_frame。样式控制
1:1、2:3、3:2、3:4、4:3、4:5、5:4、9:16、16:9、21:9 或 adaptive。480P、720P、768P 或 1080P。目标时长(秒),会四舍五入到最接近的提供方支持值。
当提供方支持时的尺寸提示。
在支持时,启用输出中的生成音频。与
audioRef*(输入)不同。在支持时切换提供方水印。
adaptive 是一个特定于提供方的哨兵值:会原样转发给
在其能力中声明了 adaptive 的提供方(例如 BytePlus
Seedance 会用它根据输入图像尺寸自动检测比例)。
未声明它的提供方会在工具结果中的 details.ignoredOverrides
里暴露该值,因此丢弃是可见的。
高级
"status" 返回当前会话任务;"list" 检查提供方。提供方/模型覆盖(例如
runway/gen4.5)。输出文件名提示。
可选的提供方请求超时时间(毫秒)。
作为 JSON 对象的提供方特定选项(例如
{"seed": 42, "draft": true})。
声明了类型化 schema 的提供方会验证键和值类型;未知键或类型不匹配会在回退时跳过该候选项。未声明 schema 的提供方会原样接收这些选项。运行 video_generate action=list
可查看每个提供方接受什么。并非所有提供方都支持所有参数。OpenClaw 会将时长规范化为
最接近的提供方支持值,并在回退提供方暴露不同控制面的情况下,
重映射已翻译的几何提示,例如将 size 转为 aspect-ratio。
真正不支持的覆盖会尽力忽略,并在工具结果中以警告形式报告。
硬性能力限制(例如参考输入过多)会在提交前失败。工具结果会报告
已应用的设置;
details.normalization 会记录任何
从请求到实际应用的转换。- 无参考媒体 →
generate - 任意图像参考 →
imageToVideo - 任意视频参考 →
videoToVideo - 参考音频输入不会改变解析后的模式;它们会叠加在图像/视频参考所选择的模式之上,并且仅适用于声明了
maxInputAudios的提供方。
回退与类型化选项
某些能力检查是在回退层而不是工具边界执行的,因此一个超出主提供方限制的请求仍可能在具备能力的回退方上运行:- 当请求包含音频参考时,声明
maxInputAudios为无(或0)的活动候选项会被跳过;随后尝试下一个候选项。 - 活动候选项的
maxDurationSeconds低于请求的durationSeconds,且未声明supportedDurationSeconds列表 → 被跳过。 - 请求包含
providerOptions,且活动候选项明确声明了类型化的providerOptionsschema → 如果提供的键不在 schema 中或值类型不匹配,则跳过。未声明 schema 的提供方会原样接收这些选项(向后兼容的透传)。提供方可以通过声明空 schema(capabilities.providerOptions: {})来选择退出所有 provider options,这会导致与类型不匹配相同的跳过行为。
warn 级别记录,因此运维人员能看到主提供方何时被跳过;后续跳过会以 debug 级别记录,以保持较长的回退链安静。如果所有候选项都被跳过,聚合错误会包含每个跳过原因。
动作
| 动作 | 作用 |
|---|---|
generate | 默认。根据给定提示词和可选参考输入创建视频。 |
status | 在不启动新生成的情况下,检查当前会话中正在进行的视频任务状态。 |
list | 显示可用的提供方、模型及其能力。 |
模型选择
OpenClaw 按以下顺序解析模型:model工具参数 — 如果代理在调用中指定了该参数。videoGenerationModel.primary— 来自配置。videoGenerationModel.fallbacks— 按顺序。- 自动检测 — 从当前默认提供方开始,然后按字母顺序遍历其余提供方中拥有有效认证的项。
agents.defaults.mediaGenerationAutoProviderFallback: false 设置为只使用
明确指定的 model、primary 和 fallbacks 条目。
提供方说明
Alibaba
Alibaba
使用 DashScope / Model Studio 异步端点。参考图像和
视频必须是远程
http(s) URL。BytePlus (1.0)
BytePlus (1.0)
提供方 id:
byteplus。模型:seedance-1-0-pro-250528(默认),
seedance-1-0-pro-t2v-250528、seedance-1-0-pro-fast-251015、
seedance-1-0-lite-t2v-250428、seedance-1-0-lite-i2v-250428。T2V 模型(*-t2v-*)不接受图像输入;I2V 模型和通用
*-pro-* 模型支持单张参考图像(首帧)。将图像按位置传入或
设置 role: "first_frame"。当提供图像时,T2V 模型 ID 会自动
切换到对应的 I2V 变体。支持的 providerOptions 键:seed(number)、draft(boolean —
强制 480p)、camera_fixed(boolean)。BytePlus Seedance 1.5
BytePlus Seedance 1.5
需要
@openclaw/byteplus-modelark
插件。提供方 id:byteplus-seedance15。模型:
seedance-1-5-pro-251215。使用统一的 content[] API。最多支持 2 张输入图像
(first_frame + last_frame)。所有输入都必须是远程 https://
URL。为每张图像设置 role: "first_frame" / "last_frame",或
按位置传入图像。aspectRatio: "adaptive" 会根据输入图像自动检测比例。
audio: true 映射为 generate_audio。providerOptions.seed
(number)会被转发。BytePlus Seedance 2.0
BytePlus Seedance 2.0
需要
@openclaw/byteplus-modelark
插件。提供方 id:byteplus-seedance2。模型:
dreamina-seedance-2-0-260128、
dreamina-seedance-2-0-fast-260128。使用统一的 content[] API。最多支持 9 张参考图像、
3 个参考视频和 3 个参考音频。所有输入都必须是远程
https:// URL。为每个资源设置 role — 支持的值:
"first_frame"、"last_frame"、"reference_image"、
"reference_video"、"reference_audio"。aspectRatio: "adaptive" 会根据输入图像自动检测比例。
audio: true 映射为 generate_audio。providerOptions.seed
(number)会被转发。ComfyUI
ComfyUI
由工作流驱动的本地或云端执行。通过配置好的图支持文本转视频和
图像转视频。
fal
fal
为长时间运行任务使用带队列的流程。大多数 fal 视频模型
接受单张图像参考。Seedance 2.0 参考转视频模型最多接受 9 张图像、
3 个视频和 3 个音频参考,且参考文件总数最多为 12 个。
Google (Gemini / Veo)
Google (Gemini / Veo)
支持一张图像或一段视频参考。
MiniMax
MiniMax
仅支持单张图像参考。
OpenAI
OpenAI
仅转发
size 覆盖。其他样式覆盖
(aspectRatio、resolution、audio、watermark)会被忽略并给出
警告。OpenRouter
OpenRouter
使用 OpenRouter 的异步
/videos API。OpenClaw 会提交
任务,轮询 polling_url,并下载 unsigned_urls 或文档中说明的任务内容端点。
内置的 google/veo-3.1-fast 默认模型声明支持 4/6/8 秒时长、
720P/1080P 分辨率,以及 16:9/9:16 宽高比。Qwen
Qwen
与 Alibaba 相同的 DashScope 后端。参考输入必须是远程
http(s) URL;本地文件会在前置阶段被拒绝。Runway
Runway
通过 data URI 支持本地文件。视频转视频需要
runway/gen4_aleph。纯文本运行公开 16:9 和 9:16 宽高比。Together
Together
仅支持单张图像参考。
Vydra
Vydra
直接使用
https://www.vydra.ai/api/v1,以避免认证丢失的
重定向。veo3 仅作为文本转视频捆绑;kling 需要
远程图像 URL。xAI
xAI
支持文本转视频、单张首帧图像转视频、最多 7 个通过 xAI
reference_images 传入的 reference_image 输入,以及远程
视频编辑/扩展流程。提供商能力模式
共享的视频生成契约支持按模式区分的能力, 而不是只使用扁平的聚合限制。新的提供商实现 应优先使用显式的模式块:maxInputImages 和 maxInputVideos 这样的扁平聚合字段
不足以声明变换模式支持。提供商应
显式声明 generate、imageToVideo 和 videoToVideo,以便实时
测试、契约测试以及共享的 video_generate 工具能够确定性地验证
模式支持。
当提供商中的某个模型对参考输入的支持范围比
其他模型更宽时,应使用 maxInputImagesByModel、maxInputVideosByModel 或
maxInputAudiosByModel,而不是提升整个模式的限制。
实时测试
为共享的捆绑提供商启用可选的实时覆盖:~/.profile 加载缺失的提供商环境变量,默认优先使用
实时/环境 API 密钥,而不是已存储的认证配置文件,并且默认执行
对发布安全的冒烟测试:
- 对扫描中的每个非 FAL 提供商执行
generate。 - 一秒钟的 lobster 提示词。
- 每个提供商的操作上限来自
OPENCLAW_LIVE_VIDEO_GENERATION_TIMEOUT_MS(默认值为180000)。
OPENCLAW_LIVE_VIDEO_GENERATION_FULL_MODES=1 还会运行共享扫描可安全使用本地媒体
执行的已声明变换模式:
- 当
capabilities.imageToVideo.enabled时执行imageToVideo。 - 当
capabilities.videoToVideo.enabled且 提供商/模型在共享扫描中接受基于缓冲区的本地视频输入时执行videoToVideo。
videoToVideo 实时通道仅在你
选择 runway/gen4_aleph 时覆盖 runway。