Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

OpenClaw 代理可以根据文本提示、参考图像或现有视频生成视频。支持十六个提供商后端,每个后端都有不同的模型选项、输入模式和功能集。代理会根据你的配置和可用的 API 密钥自动选择合适的提供商。
只有在至少有一个视频生成提供商可用时,video_generate 工具才会显示。如果你在代理工具中看不到它,请设置提供商 API 密钥或配置 agents.defaults.videoGenerationModel
OpenClaw 将视频生成视为三种运行时模式:
  • generate — 不包含参考媒体的文本生成视频请求。
  • imageToVideo — 请求包含一个或多个参考图像。
  • videoToVideo — 请求包含一个或多个参考视频。
提供商可以支持这些模式中的任意子集。该工具会在提交前验证当前活动模式,并在 action=list 中报告支持的模式。

快速开始

1

配置认证

为任意受支持的提供商设置 API 密钥:
export GEMINI_API_KEY="your-key"
2

选择默认模型(可选)

openclaw config set agents.defaults.videoGenerationModel.primary "google/veo-3.1-fast-generate-preview"
3

让代理执行

生成一段 5 秒的电影感视频,内容是一只友好的龙虾在日落时冲浪。
代理会自动调用 video_generate。无需配置工具白名单。

异步生成的工作方式

视频生成是异步的。当代理在一个会话中调用 video_generate 时:
  1. OpenClaw 将请求提交给提供商,并立即返回一个任务 ID。
  2. 提供商在后台处理该任务(通常需要 30 秒到 5 分钟,具体取决于提供商和分辨率)。
  3. 视频准备就绪后,OpenClaw 会通过内部完成事件唤醒同一会话。
  4. 代理会把生成完成的视频发布回原始对话中。
在任务进行中时,同一会话里重复调用 video_generate 会返回当前任务状态,而不是启动另一个生成任务。使用 openclaw tasks listopenclaw tasks show <taskId> 可在 CLI 中查看进度。 在基于会话的代理运行之外(例如直接调用工具时),该工具会回退为内联生成,并在同一轮返回最终媒体路径。 当提供商返回字节数据时,生成的视频文件会保存在 OpenClaw 管理的媒体存储中。默认的生成视频保存上限遵循视频媒体限制,而 agents.defaults.mediaMaxMb 会将其提升以支持更大的渲染结果。当提供商还返回托管输出 URL 时,如果本地持久化因文件过大而拒绝保存,OpenClaw 可以交付该 URL 而不是使任务失败。

任务生命周期

状态含义
queued任务已创建,正在等待提供商接受。
running提供商正在处理(通常需要 30 秒到 5 分钟,具体取决于提供商和分辨率)。
succeeded视频已就绪;代理被唤醒并将其发布到对话中。
failed提供商错误或超时;代理被唤醒并附带错误详情。
从 CLI 检查状态:
openclaw tasks list
openclaw tasks show <taskId>
openclaw tasks cancel <taskId>
如果某个视频任务对于当前会话已经处于 queuedrunning 状态,video_generate 会返回现有任务状态,而不是启动新的任务。使用 action: "status" 可显式检查而不会触发新的生成。

支持的提供商

提供商默认模型文本图像参考视频参考认证
Alibabawan2.6-t2v是(远程 URL)是(远程 URL)MODELSTUDIO_API_KEY
BytePlus (1.0)seedance-1-0-pro-250528最多 2 张图像(仅 I2V 模型;首帧 + 末帧)BYTEPLUS_API_KEY
BytePlus Seedance 1.5seedance-1-5-pro-251215最多 2 张图像(通过角色指定首帧 + 末帧)BYTEPLUS_API_KEY
BytePlus Seedance 2.0dreamina-seedance-2-0-260128最多 9 张参考图像最多 3 个视频BYTEPLUS_API_KEY
ComfyUIworkflow1 张图像COMFY_API_KEYCOMFY_CLOUD_API_KEY
DeepInfraPixverse/Pixverse-T2VDEEPINFRA_API_KEY
falfal-ai/minimax/video-01-live1 张图像;使用 Seedance reference-to-video 时最多 9 张使用 Seedance reference-to-video 时最多 3 个视频FAL_KEY
Googleveo-3.1-fast-generate-preview1 张图像1 个视频GEMINI_API_KEY
MiniMaxMiniMax-Hailuo-2.31 张图像MINIMAX_API_KEY 或 MiniMax OAuth
OpenAIsora-21 张图像1 个视频OPENAI_API_KEY
OpenRoutergoogle/veo-3.1-fast最多 4 张图像(首帧/末帧或参考图)OPENROUTER_API_KEY
Qwenwan2.6-t2v是(远程 URL)是(远程 URL)QWEN_API_KEY
Runwaygen4.51 张图像1 个视频RUNWAYML_API_SECRET
TogetherWan-AI/Wan2.2-T2V-A14B1 张图像TOGETHER_API_KEY
Vydraveo31 张图像(klingVYDRA_API_KEY
xAIgrok-imagine-video1 张首帧图像或最多 7 个 reference_images1 个视频XAI_API_KEY
某些提供商还接受额外或替代的 API 密钥环境变量。详情请参见各个提供商页面 运行 video_generate action=list 可在运行时检查可用的提供商、模型和运行模式。

功能矩阵

video_generate、契约测试和共享 live sweep 使用的显式模式契约:
提供商generateimageToVideovideoToVideo当前共享 live 线路
AlibabagenerateimageToVideo;跳过 videoToVideo,因为该提供商需要远程 http(s) 视频 URL
BytePlusgenerateimageToVideo
ComfyUI不在共享 sweep 中;工作流相关覆盖在 Comfy 测试中
DeepInfragenerate;捆绑契约中的原生 DeepInfra 视频 schema 为文本生成视频
falgenerateimageToVideo;仅在使用 Seedance reference-to-video 时支持 videoToVideo
GooglegenerateimageToVideo;共享的 videoToVideo 被跳过,因为当前基于缓冲区的 Gemini/Veo sweep 不接受该输入
MiniMaxgenerateimageToVideo
OpenAIgenerateimageToVideo;共享的 videoToVideo 被跳过,因为当前该组织/输入路径需要提供商侧的 inpaint/remix 访问
OpenRoutergenerateimageToVideo
QwengenerateimageToVideo;跳过 videoToVideo,因为该提供商需要远程 http(s) 视频 URL
RunwaygenerateimageToVideo;仅当所选模型为 runway/gen4_aleph 时才运行 videoToVideo
TogethergenerateimageToVideo
Vydra不适用于共享 sweep;捆绑的 veo3 仅支持文本,而捆绑的 kling 需要远程图像 URL
xAIgenerateimageToVideo;跳过 videoToVideo,因为该提供商当前需要远程 MP4 URL

工具参数

必需

prompt
string
required
用于生成视频的文本描述。action: "generate" 时必填。

内容输入

image
string
单张参考图像(路径或 URL)。
images
string[]
多张参考图像(最多 9 张)。
imageRoles
string[]
可选的按位置角色提示,与合并后的图像列表一一对应。 规范值:first_framelast_framereference_image
video
string
单个参考视频(路径或 URL)。
videos
string[]
多个参考视频(最多 4 个)。
videoRoles
string[]
可选的按位置角色提示,与合并后的视频列表一一对应。 规范值:reference_video
audioRef
string
单个参考音频(路径或 URL)。当提供方支持音频输入时,用于背景音乐或语音参考。
audioRefs
string[]
多个参考音频(最多 3 个)。
audioRoles
string[]
可选的按位置角色提示,与合并后的音频列表一一对应。 规范值:reference_audio
角色提示会原样转发给提供方。规范值来自 VideoGenerationAssetRole 联合类型,但提供方可能接受额外的 角色字符串。*Roles 数组中的条目数不得超过相应参考列表的 条目数;越界会报出清晰的错误。使用空字符串可将某个位置留空。 对于 xAI,将每个图像角色都设为 reference_image 可使用其 reference_images 生成模式;若为单张图像转视频,则省略角色或使用 first_frame

样式控制

aspectRatio
string
1:12:33:23:44:34:55:49:1616:921:9adaptive
resolution
string
480P720P768P1080P
durationSeconds
number
目标时长(秒),会四舍五入到最接近的提供方支持值。
size
string
当提供方支持时的尺寸提示。
audio
boolean
在支持时,启用输出中的生成音频。与 audioRef*(输入)不同。
watermark
boolean
在支持时切换提供方水印。
adaptive 是一个特定于提供方的哨兵值:会原样转发给 在其能力中声明了 adaptive 的提供方(例如 BytePlus Seedance 会用它根据输入图像尺寸自动检测比例)。 未声明它的提供方会在工具结果中的 details.ignoredOverrides 里暴露该值,因此丢弃是可见的。

高级

action
"generate" | "status" | "list"
default:"generate"
"status" 返回当前会话任务;"list" 检查提供方。
model
string
提供方/模型覆盖(例如 runway/gen4.5)。
filename
string
输出文件名提示。
timeoutMs
number
可选的提供方请求超时时间(毫秒)。
providerOptions
object
作为 JSON 对象的提供方特定选项(例如 {"seed": 42, "draft": true})。 声明了类型化 schema 的提供方会验证键和值类型;未知键或类型不匹配会在回退时跳过该候选项。未声明 schema 的提供方会原样接收这些选项。运行 video_generate action=list 可查看每个提供方接受什么。
并非所有提供方都支持所有参数。OpenClaw 会将时长规范化为 最接近的提供方支持值,并在回退提供方暴露不同控制面的情况下, 重映射已翻译的几何提示,例如将 size 转为 aspect-ratio。 真正不支持的覆盖会尽力忽略,并在工具结果中以警告形式报告。 硬性能力限制(例如参考输入过多)会在提交前失败。工具结果会报告 已应用的设置;details.normalization 会记录任何 从请求到实际应用的转换。
参考输入会选择运行时模式:
  • 无参考媒体 → generate
  • 任意图像参考 → imageToVideo
  • 任意视频参考 → videoToVideo
  • 参考音频输入不会改变解析后的模式;它们会叠加在图像/视频参考所选择的模式之上,并且仅适用于声明了 maxInputAudios 的提供方。
混合图像和视频参考并不是稳定的共享能力面。每次请求尽量只使用一种参考类型。

回退与类型化选项

某些能力检查是在回退层而不是工具边界执行的,因此一个超出主提供方限制的请求仍可能在具备能力的回退方上运行:
  • 当请求包含音频参考时,声明 maxInputAudios 为无(或 0)的活动候选项会被跳过;随后尝试下一个候选项。
  • 活动候选项的 maxDurationSeconds 低于请求的 durationSeconds,且未声明 supportedDurationSeconds 列表 → 被跳过。
  • 请求包含 providerOptions,且活动候选项明确声明了类型化的 providerOptions schema → 如果提供的键不在 schema 中或值类型不匹配,则跳过。未声明 schema 的提供方会原样接收这些选项(向后兼容的透传)。提供方可以通过声明空 schema(capabilities.providerOptions: {})来选择退出所有 provider options,这会导致与类型不匹配相同的跳过行为。
请求中的第一个跳过原因会以 warn 级别记录,因此运维人员能看到主提供方何时被跳过;后续跳过会以 debug 级别记录,以保持较长的回退链安静。如果所有候选项都被跳过,聚合错误会包含每个跳过原因。

动作

动作作用
generate默认。根据给定提示词和可选参考输入创建视频。
status在不启动新生成的情况下,检查当前会话中正在进行的视频任务状态。
list显示可用的提供方、模型及其能力。

模型选择

OpenClaw 按以下顺序解析模型:
  1. model 工具参数 — 如果代理在调用中指定了该参数。
  2. videoGenerationModel.primary — 来自配置。
  3. videoGenerationModel.fallbacks — 按顺序。
  4. 自动检测 — 从当前默认提供方开始,然后按字母顺序遍历其余提供方中拥有有效认证的项。
如果某个提供方失败,会自动尝试下一个候选项。如果所有 候选项都失败,错误会包含每次尝试的详细信息。 agents.defaults.mediaGenerationAutoProviderFallback: false 设置为只使用 明确指定的 modelprimaryfallbacks 条目。
{
  agents: {
    defaults: {
      videoGenerationModel: {
        primary: "google/veo-3.1-fast-generate-preview",
        fallbacks: ["runway/gen4.5", "qwen/wan2.6-t2v"],
      },
    },
  },
}

提供方说明

使用 DashScope / Model Studio 异步端点。参考图像和 视频必须是远程 http(s) URL。
提供方 id:byteplus模型:seedance-1-0-pro-250528(默认), seedance-1-0-pro-t2v-250528seedance-1-0-pro-fast-251015seedance-1-0-lite-t2v-250428seedance-1-0-lite-i2v-250428T2V 模型(*-t2v-*)不接受图像输入;I2V 模型和通用 *-pro-* 模型支持单张参考图像(首帧)。将图像按位置传入或 设置 role: "first_frame"。当提供图像时,T2V 模型 ID 会自动 切换到对应的 I2V 变体。支持的 providerOptions 键:seed(number)、draft(boolean — 强制 480p)、camera_fixed(boolean)。
需要 @openclaw/byteplus-modelark 插件。提供方 id:byteplus-seedance15。模型: seedance-1-5-pro-251215使用统一的 content[] API。最多支持 2 张输入图像 (first_frame + last_frame)。所有输入都必须是远程 https:// URL。为每张图像设置 role: "first_frame" / "last_frame",或 按位置传入图像。aspectRatio: "adaptive" 会根据输入图像自动检测比例。 audio: true 映射为 generate_audioproviderOptions.seed (number)会被转发。
需要 @openclaw/byteplus-modelark 插件。提供方 id:byteplus-seedance2。模型: dreamina-seedance-2-0-260128dreamina-seedance-2-0-fast-260128使用统一的 content[] API。最多支持 9 张参考图像、 3 个参考视频和 3 个参考音频。所有输入都必须是远程 https:// URL。为每个资源设置 role — 支持的值: "first_frame""last_frame""reference_image""reference_video""reference_audio"aspectRatio: "adaptive" 会根据输入图像自动检测比例。 audio: true 映射为 generate_audioproviderOptions.seed (number)会被转发。
由工作流驱动的本地或云端执行。通过配置好的图支持文本转视频和 图像转视频。
为长时间运行任务使用带队列的流程。大多数 fal 视频模型 接受单张图像参考。Seedance 2.0 参考转视频模型最多接受 9 张图像、 3 个视频和 3 个音频参考,且参考文件总数最多为 12 个。
支持一张图像或一段视频参考。
仅支持单张图像参考。
仅转发 size 覆盖。其他样式覆盖 (aspectRatioresolutionaudiowatermark)会被忽略并给出 警告。
使用 OpenRouter 的异步 /videos API。OpenClaw 会提交 任务,轮询 polling_url,并下载 unsigned_urls 或文档中说明的任务内容端点。 内置的 google/veo-3.1-fast 默认模型声明支持 4/6/8 秒时长、 720P/1080P 分辨率,以及 16:9/9:16 宽高比。
与 Alibaba 相同的 DashScope 后端。参考输入必须是远程 http(s) URL;本地文件会在前置阶段被拒绝。
通过 data URI 支持本地文件。视频转视频需要 runway/gen4_aleph。纯文本运行公开 16:99:16 宽高比。
仅支持单张图像参考。
直接使用 https://www.vydra.ai/api/v1,以避免认证丢失的 重定向。veo3 仅作为文本转视频捆绑;kling 需要 远程图像 URL。
支持文本转视频、单张首帧图像转视频、最多 7 个通过 xAI reference_images 传入的 reference_image 输入,以及远程 视频编辑/扩展流程。

提供商能力模式

共享的视频生成契约支持按模式区分的能力, 而不是只使用扁平的聚合限制。新的提供商实现 应优先使用显式的模式块:
capabilities: {
  generate: {
    maxVideos: 1,
    maxDurationSeconds: 10,
    supportsResolution: true,
  },
  imageToVideo: {
    enabled: true,
    maxVideos: 1,
    maxInputImages: 1,
    maxInputImagesByModel: { "provider/reference-to-video": 9 },
    maxDurationSeconds: 5,
  },
  videoToVideo: {
    enabled: true,
    maxVideos: 1,
    maxInputVideos: 1,
    maxDurationSeconds: 5,
  },
}
诸如 maxInputImagesmaxInputVideos 这样的扁平聚合字段 不足以声明变换模式支持。提供商应 显式声明 generateimageToVideovideoToVideo,以便实时 测试、契约测试以及共享的 video_generate 工具能够确定性地验证 模式支持。 当提供商中的某个模型对参考输入的支持范围比 其他模型更宽时,应使用 maxInputImagesByModelmaxInputVideosByModelmaxInputAudiosByModel,而不是提升整个模式的限制。

实时测试

为共享的捆绑提供商启用可选的实时覆盖:
OPENCLAW_LIVE_TEST=1 pnpm test:live -- extensions/video-generation-providers.live.test.ts
仓库封装命令:
pnpm test:live:media video
这个实时文件会从 ~/.profile 加载缺失的提供商环境变量,默认优先使用 实时/环境 API 密钥,而不是已存储的认证配置文件,并且默认执行 对发布安全的冒烟测试:
  • 对扫描中的每个非 FAL 提供商执行 generate
  • 一秒钟的 lobster 提示词。
  • 每个提供商的操作上限来自 OPENCLAW_LIVE_VIDEO_GENERATION_TIMEOUT_MS(默认值为 180000)。
由于提供商侧队列延迟可能主导发布 时间,FAL 采用可选启用:
pnpm test:live:media video --video-providers fal
设置 OPENCLAW_LIVE_VIDEO_GENERATION_FULL_MODES=1 还会运行共享扫描可安全使用本地媒体 执行的已声明变换模式:
  • capabilities.imageToVideo.enabled 时执行 imageToVideo
  • capabilities.videoToVideo.enabled 且 提供商/模型在共享扫描中接受基于缓冲区的本地视频输入时执行 videoToVideo
目前共享的 videoToVideo 实时通道仅在你 选择 runway/gen4_aleph 时覆盖 runway

配置

在你的 OpenClaw 配置中设置默认的视频生成模型:
{
  agents: {
    defaults: {
      videoGenerationModel: {
        primary: "qwen/wan2.6-t2v",
        fallbacks: ["qwen/wan2.6-r2v-flash"],
      },
    },
  },
}
或者通过 CLI:
openclaw config set agents.defaults.videoGenerationModel.primary "qwen/wan2.6-t2v"

相关内容