OpenAI 为 GPT 模型提供开发者 API,Codex 也可以通过 OpenAI 的 Codex 客户端作为 ChatGPT 方案的编码代理使用。OpenClaw 会将这些接口分开,以便配置保持可预测。 OpenClaw 支持三种 OpenAI 系路由。大多数希望获得 Codex 行为的 ChatGPT/Codex 订阅用户 应使用原生 Codex 应用服务器运行时。模型前缀选择提供方/模型名称;单独的运行时设置选择 嵌入式代理循环由谁执行:Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
- API key - 直接 OpenAI Platform 访问,按使用量计费(
openai/*模型) - Codex subscription with native Codex runtime - ChatGPT/Codex 登录加上 Codex 应用服务器执行(
openai/*模型加上agents.defaults.agentRuntime.id: "codex") - Codex subscription through PI - 使用正常 OpenClaw PI 运行器的 ChatGPT/Codex 登录(
openai-codex/*模型)
快速选择
| Goal | Use | Notes |
|---|---|---|
| ChatGPT/Codex subscription with native Codex runtime | openai/gpt-5.5 plus agentRuntime.id: "codex" | Recommended Codex setup for most users. Sign in with openai-codex auth. |
| Direct API-key billing | openai/gpt-5.5 | Set OPENAI_API_KEY or run OpenAI API-key onboarding. |
| ChatGPT/Codex subscription auth through PI | openai-codex/gpt-5.5 | Use only when you intentionally want the normal PI runner. |
| Image generation or editing | openai/gpt-image-2 | Works with either OPENAI_API_KEY or OpenAI Codex OAuth. |
| Transparent-background images | openai/gpt-image-1.5 | Use outputFormat=png or webp and openai.background=transparent. |
命名映射
这些名称相似,但不能互换:| 你看到的名称 | 层级 | 含义 |
|---|---|---|
openai | 提供方前缀 | 直接 OpenAI Platform API 路径。 |
openai-codex | 提供方前缀 | 通过正常 OpenClaw PI 运行器的 OpenAI Codex OAuth/订阅路径。 |
codex 插件 | 插件 | 随 OpenClaw 捆绑的插件,提供原生 Codex 应用服务器运行时和 /codex 聊天控制。 |
agentRuntime.id: codex | 代理运行时 | 为嵌入式轮次强制使用原生 Codex 应用服务器挂载。 |
/codex ... | 聊天命令集 | 从对话中绑定/控制 Codex 应用服务器线程。 |
runtime: "acp", agentId: "codex" | ACP 会话路径 | 通过 ACP/acpx 运行 Codex 的显式回退路径。 |
openai-codex/* 和
codex 插件。当你希望通过 PI 使用 Codex OAuth,同时也希望
可用原生 /codex 聊天控制时,这是有效的。openclaw doctor 会对这种
组合发出警告,以便你确认它是有意为之;它不会重写配置。
GPT-5.5 可通过直接 OpenAI Platform API 密钥访问以及订阅/OAuth 路由获得。对于 ChatGPT/Codex 订阅加原生 Codex 执行,请使用
openai/gpt-5.5 并搭配 agentRuntime.id: "codex"。仅在通过 PI 使用 Codex OAuth 时使用 openai-codex/gpt-5.5,或者在直接使用 OPENAI_API_KEY 流量时使用不带 Codex 运行时覆盖的 openai/gpt-5.5。启用 OpenAI 插件,或选择
openai-codex/* 模型,并不会
启用捆绑的 Codex 应用服务器插件。只有当你显式选择原生 Codex 挂载并使用
agentRuntime.id: "codex",或者使用旧版 codex/* 模型引用时,OpenClaw 才会启用该插件。
如果捆绑的 codex 插件已启用,但 openai-codex/* 仍然通过 PI 解析,
openclaw doctor 会发出警告并保持路由不变。OpenClaw 功能覆盖
| OpenAI 能力 | OpenClaw 接口 | 状态 |
|---|---|---|
| 聊天 / Responses | openai/<model> 模型提供方 | 是 |
| Codex 订阅模型 | openai-codex/<model> 搭配 openai-codex OAuth | 是 |
| Codex 应用服务器挂载 | openai/<model> 搭配 agentRuntime.id: codex | 是 |
| 服务器端网页搜索 | 原生 OpenAI Responses 工具 | 是,在启用网页搜索且未固定提供方时 |
| 图像 | image_generate | 是 |
| 视频 | video_generate | 是 |
| 文本转语音 | messages.tts.provider: "openai" / tts | 是 |
| 批量语音转文本 | tools.media.audio / 媒体理解 | 是 |
| 流式语音转文本 | Voice Call streaming.provider: "openai" | 是 |
| 实时语音 | Voice Call realtime.provider: "openai" / Control UI Talk | 是 |
| 嵌入 | memory embedding provider | 是 |
内存嵌入
OpenClaw 可以使用 OpenAI,或 OpenAI 兼容的嵌入端点,来进行memory_search 索引和查询嵌入:
memorySearch 下设置
queryInputType 和 documentInputType。OpenClaw 会将这些作为特定提供方的 input_type 请求字段转发:查询嵌入使用
queryInputType;已索引的内存块和批量索引使用
documentInputType。完整示例请参见 内存配置参考。
快速开始
选择你偏好的认证方式并按照设置步骤操作。- API 密钥(OpenAI Platform)
- Codex subscription
最适合: 直接 API 访问和按使用量计费。
路由摘要
| 模型引用 | 运行时配置 | 路由 | 认证 |
|---|---|---|---|
openai/gpt-5.5 | 省略 / agentRuntime.id: "pi" | 直接 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.4-mini | 省略 / agentRuntime.id: "pi" | 直接 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.5 | agentRuntime.id: "codex" | Codex 应用服务器挂载 | Codex 应用服务器 |
除非你显式强制使用 Codex 应用服务器挂载,否则
openai/* 是直接 OpenAI API 密钥路径。对 Codex OAuth 通过默认 PI 运行器请使用 openai-codex/*,或者使用带
agentRuntime.id: "codex" 的 openai/gpt-5.5 来进行原生 Codex 应用服务器执行。配置示例
原生 Codex app-server 认证
原生 Codex app-server harness 使用openai/* 模型引用以及
agentRuntime.id: "codex",但其认证仍然基于账户。OpenClaw
按以下顺序选择认证方式:
- 显式绑定到 agent 的 OpenClaw
openai-codex认证配置文件。 - app-server 现有的账户,例如本地 Codex CLI 的 ChatGPT 登录。
- 仅对于本地 stdio 启动的 app-server:当 app-server 报告没有账户但仍需要 OpenAI 认证时,先使用
CODEX_API_KEY,再使用OPENAI_API_KEY。
OPENAI_API_KEY 就被替换掉。环境变量 API key 回退仅适用于本地 stdio 的无账户路径;它不会发送到 WebSocket app-server 连接。当选择了订阅式 Codex 配置文件时,OpenClaw 也会将 CODEX_API_KEY 和 OPENAI_API_KEY 排除在启动的 stdio app-server 子进程之外,并通过 app-server 登录 RPC 发送所选凭据。
图像生成
捆绑的openai 插件通过 image_generate 工具注册图像生成。
它通过同一个 openai/gpt-image-2 模型引用,支持 OpenAI API key 图像生成和 Codex OAuth 图像
生成。
| 能力 | OpenAI API key | Codex OAuth |
|---|---|---|
| 模型引用 | openai/gpt-image-2 | openai/gpt-image-2 |
| 认证 | OPENAI_API_KEY | OpenAI Codex OAuth 登录 |
| 传输方式 | OpenAI Images API | Codex Responses 后端 |
| 每次请求最大图像数 | 4 | 4 |
| 编辑模式 | 已启用(最多 5 张参考图像) | 已启用(最多 5 张参考图像) |
| 尺寸覆盖 | 支持,包括 2K/4K 尺寸 | 支持,包括 2K/4K 尺寸 |
| 宽高比 / 分辨率 | 不转发到 OpenAI Images API | 在安全时映射为受支持的尺寸 |
有关共享工具参数、提供方选择和故障转移行为,请参见 图像生成。
gpt-image-2 是 OpenAI 文本生成图像和图像编辑的默认模型。gpt-image-1.5、gpt-image-1 和 gpt-image-1-mini 仍然可以作为显式模型覆盖使用。要输出透明背景的 PNG/WebP,请使用 openai/gpt-image-1.5;当前的 gpt-image-2 API 会拒绝
background: "transparent"。
对于透明背景请求,agent 应调用 image_generate,并设置
model: "openai/gpt-image-1.5"、outputFormat: "png" 或 "webp",以及
background: "transparent";旧的 openai.background 提供方选项
仍然被接受。OpenClaw 也会通过将默认的 openai/gpt-image-2 透明
请求重写为 gpt-image-1.5 来保护公共 OpenAI 和
OpenAI Codex OAuth 路由;Azure 和自定义 OpenAI 兼容端点则保留
其已配置的部署/模型名称。
相同设置也可用于无头 CLI 运行:
openclaw infer image edit 中使用相同的 --output-format 和 --background 标志。
--openai-background 仍然可作为 OpenAI 专用别名使用。
对于 Codex OAuth 安装,请保持相同的 openai/gpt-image-2 引用。当配置了
openai-codex OAuth 配置文件时,OpenClaw 会解析该存储的 OAuth
访问令牌,并通过 Codex Responses 后端发送图像请求。它不会先尝试
OPENAI_API_KEY,也不会在该请求中静默回退到 API key。若想直接使用 OpenAI Images API
路径,请显式将 models.providers.openai 配置为 API key、
自定义 base URL 或 Azure 端点。
如果该自定义图像端点位于受信任的 LAN/私有地址上,还要设置
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非启用此选项,OpenClaw 会继续阻止私有/内部的 OpenAI 兼容图像端点。
生成:
视频生成
捆绑的openai 插件通过 video_generate 工具注册视频生成。
| 能力 | 值 |
|---|---|
| 默认模型 | openai/sora-2 |
| 模式 | 文本生成视频、图像生成视频、单视频编辑 |
| 参考输入 | 1 张图像或 1 段视频 |
| 尺寸覆盖 | 支持 |
| 其他覆盖 | aspectRatio、resolution、audio、watermark 会被忽略,并给出工具警告 |
有关共享工具参数、提供方选择和故障转移行为,请参见 视频生成。
GPT-5 提示贡献
OpenClaw 为跨提供方的 GPT-5 系列运行添加了一个共享的 GPT-5 提示贡献。它按模型 id 生效,因此openai-codex/gpt-5.5、openai/gpt-5.5、openrouter/openai/gpt-5.5、opencode/gpt-5.5 以及其他兼容的 GPT-5 引用都会收到相同的覆盖层。较旧的 GPT-4.x 模型则不会。
捆绑的原生 Codex harness 通过 Codex app-server 开发者指令使用相同的 GPT-5 行为和心跳覆盖层,因此通过 agentRuntime.id: "codex" 强制运行的 openai/gpt-5.x 会话,即使其余 harness 提示由 Codex 负责,也会保留相同的跟进和主动心跳指导。
GPT-5 贡献增加了一个带标签的行为契约,涵盖人格持久性、执行安全、工具纪律、输出形态、完成检查和验证。与频道相关的回复和静默消息行为仍保留在共享的 OpenClaw 系统提示和出站投递策略中。GPT-5 指导始终对匹配模型启用。友好交互风格层是独立的,并且可配置。
| 值 | 效果 |
|---|---|
"friendly"(默认) | 启用友好交互风格层 |
"on" | "friendly" 的别名 |
"off" | 仅禁用友好风格层 |
- Config
- CLI
当共享的
agents.defaults.promptOverlays.gpt5.personality 设置未配置时,旧版 plugins.entries.openai.config.personality 仍会作为兼容性回退被读取。语音与音频
语音合成(TTS)
语音合成(TTS)
捆绑的
可用模型:
openai 插件为 messages.tts 表面注册语音合成。| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| 声音 | messages.tts.providers.openai.voice | coral |
| 速度 | messages.tts.providers.openai.speed | (未设置) |
| 指令 | messages.tts.providers.openai.instructions | (未设置,仅 gpt-4o-mini-tts) |
| 格式 | messages.tts.providers.openai.responseFormat | 语音备注为 opus,文件为 mp3 |
| API key | messages.tts.providers.openai.apiKey | 回退到 OPENAI_API_KEY |
| Base URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
| Extra body | messages.tts.providers.openai.extraBody / extra_body | (未设置) |
gpt-4o-mini-tts、tts-1、tts-1-hd。可用声音:alloy、ash、ballad、cedar、coral、echo、fable、juniper、marin、onyx、nova、sage、shimmer、verse。extraBody 会在 OpenClaw 生成字段之后合并到 /audio/speech 请求 JSON 中,因此可用于需要额外键(如 lang)的 OpenAI 兼容端点。原型键会被忽略。设置
OPENAI_TTS_BASE_URL 可覆盖 TTS base URL,而不影响 chat API 端点。语音转文本
语音转文本
捆绑的 当共享的音频媒体配置或单次转录请求提供语言和提示提示时,它们会被转发给 OpenAI。
openai 插件通过 OpenClaw 的媒体理解转录表面注册批量语音转文本。- 默认模型:
gpt-4o-transcribe - 端点:OpenAI REST
/v1/audio/transcriptions - 输入路径:multipart 音频文件上传
- 由 OpenClaw 在所有入站音频转录使用
tools.media.audio的地方支持,包括 Discord 语音频道片段和频道音频附件
实时转录
实时转录
捆绑的
openai 插件为 Voice Call 插件注册实时转录。| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| 语言 | ...openai.language | (未设置) |
| 提示 | ...openai.prompt | (未设置) |
| 静音时长 | ...openai.silenceDurationMs | 800 |
| VAD 阈值 | ...openai.vadThreshold | 0.5 |
| API key | ...openai.apiKey | 回退到 OPENAI_API_KEY |
使用到
wss://api.openai.com/v1/realtime 的 WebSocket 连接,并使用 G.711 u-law(g711_ulaw / audio/pcmu)音频。此流式提供方仅用于 Voice Call 的实时转录路径;Discord 语音当前会录制短片段并使用批量 tools.media.audio 转录路径。实时语音
实时语音
捆绑的
openai 插件为 Voice Call 插件注册实时语音。| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime-1.5 |
| 声音 | ...openai.voice | alloy |
| 温度 | ...openai.temperature | 0.8 |
| VAD 阈值 | ...openai.vadThreshold | 0.5 |
| 静音时长 | ...openai.silenceDurationMs | 500 |
| API key | ...openai.apiKey | 回退到 OPENAI_API_KEY |
支持通过
azureEndpoint 和 azureDeployment 配置键为后端实时桥接使用 Azure OpenAI。支持双向工具调用。使用 G.711 u-law 音频格式。Control UI Talk 使用 OpenAI 浏览器实时会话,配合 Gateway 签发的临时客户端密钥,并通过直接的浏览器 WebRTC SDP 交换与 OpenAI Realtime API 通信。可使用
OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts 进行维护者现场验证;OpenAI 分支会在 Node 中签发客户端密钥,使用伪造麦克风媒体生成浏览器 SDP offer,将其发布到 OpenAI,并在不记录密钥的情况下应用 SDP answer。Azure OpenAI 端点
捆绑的openai 提供程序可以通过覆盖基础 URL,将 Azure OpenAI 资源用于图像
生成。在图像生成路径上,OpenClaw 会在 models.providers.openai.baseUrl 上检测
Azure 主机名,并自动切换为 Azure 的请求格式。
实时语音使用单独的配置路径
(
plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint),
不受 models.providers.openai.baseUrl 影响。有关其 Azure 设置,请参见
Voice and speech 下的 Realtime voice 折叠面板。- 你已经拥有 Azure OpenAI 订阅、配额或企业协议
- 你需要 Azure 提供的区域性数据驻留或合规控制
- 你希望将流量保留在现有的 Azure 租户内
配置
对于通过捆绑的openai 提供程序进行的 Azure 图像生成,请将
models.providers.openai.baseUrl 指向你的 Azure 资源,并将 apiKey 设置为
Azure OpenAI 密钥(不是 OpenAI Platform 密钥):
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
- 发送
api-key请求头,而不是Authorization: Bearer - 使用部署范围路径(
/openai/deployments/{deployment}/...) - 为每个请求追加
?api-version=... - 对 Azure 图像生成调用使用默认 600 秒请求超时。
单次调用的
timeoutMs仍然会覆盖此默认值。
openai 提供程序图像生成路径的 Azure 路由要求
OpenClaw 2026.4.22 或更高版本。较早版本会将任何自定义的
openai.baseUrl 当作公共 OpenAI 端点处理,并在 Azure 图像部署上失败。API 版本
设置AZURE_OPENAI_API_VERSION 以为 Azure 图像生成路径固定一个特定的 Azure 预览版或 GA 版本:
2024-12-01-preview。
模型名称是部署名称
Azure OpenAI 将模型绑定到部署。对于通过捆绑的openai 提供程序路由的 Azure 图像生成请求,
OpenClaw 中的 model 字段必须是你在 Azure 门户中配置的 Azure 部署名称,
而不是公共 OpenAI 模型 id。
如果你创建了一个名为 gpt-image-2-prod 的部署,用于提供 gpt-image-2:
openai 提供程序路由的图像生成调用。
区域可用性
Azure 图像生成目前仅在部分区域可用 (例如eastus2、swedencentral、polandcentral、westus3、
uaenorth)。在创建部署之前,请查看 Microsoft 的当前区域列表,并确认
特定模型在你的区域中可用。
参数差异
Azure OpenAI 和公共 OpenAI 并不总是接受相同的图像参数。 Azure 可能会拒绝公共 OpenAI 允许的选项(例如gpt-image-2 上的某些
background 值),或者仅在特定模型版本上提供这些选项。这些差异来自 Azure
及其底层模型,而不是 OpenClaw。如果 Azure 请求因验证错误而失败,请在
Azure 门户中检查你的特定部署和 API 版本所支持的参数集合。
Azure OpenAI 使用原生传输和兼容行为,但不会接收
OpenClaw 的隐藏归因请求头——请参见 Advanced configuration
下的 Native vs OpenAI-compatible routes 折叠面板。对于 Azure 上的聊天或 Responses 流量(不只是图像生成),请使用
入门流程或专用的 Azure 提供程序配置——仅
openai.baseUrl 并不会自动使用 Azure 的 API/身份验证格式。
另有一个单独的 azure-openai-responses/* 提供程序;请参见下面的服务器端压缩折叠面板。高级配置
传输(WebSocket vs SSE)
传输(WebSocket vs SSE)
OpenClaw 对
相关 OpenAI 文档:
openai/* 和 openai-codex/* 都默认采用 WebSocket 优先、SSE 回退("auto")。在 "auto" 模式下,OpenClaw:- 在回退到 SSE 之前,会重试一次早期的 WebSocket 失败
- 失败后,会将 WebSocket 标记为约降级 60 秒,并在冷却期间使用 SSE
- 为重试和重新连接附加稳定的会话和轮次身份请求头
- 在不同传输变体之间规范化用量计数器(
input_tokens/prompt_tokens)
| 值 | 行为 |
|---|---|
"auto"(默认) | WebSocket 优先,SSE 回退 |
"sse" | 仅强制使用 SSE |
"websocket" | 仅强制使用 WebSocket |
WebSocket 预热
WebSocket 预热
OpenClaw 默认对
openai/* 和 openai-codex/* 启用 WebSocket 预热,以降低首轮延迟。快速模式
快速模式
OpenClaw 为
openai/* 和 openai-codex/* 暴露了一个共享的快速模式开关:- 聊天/UI:
/fast status|on|off - 配置:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority")。现有的 service_tier 值会被保留,并且快速模式不会重写 reasoning 或 text.verbosity。会话覆盖优先于配置。在 Sessions UI 中清除会话覆盖后,会使该会话恢复为配置的默认值。
优先处理(service_tier)
优先处理(service_tier)
OpenAI 的 API 通过 支持的值:
service_tier 暴露优先处理功能。在 OpenClaw 中按模型设置:auto、default、flex、priority。服务器端压缩(Responses API)
服务器端压缩(Responses API)
对于直接的 OpenAI Responses 模型(
api.openai.com 上的 openai/*),OpenAI 插件的 Pi-harness 流包装器会自动启用服务器端压缩:- 强制
store: true(除非模型兼容性设置了supportsStore: false) - 注入
context_management: [{ type: "compaction", compact_threshold: ... }] - 默认
compact_threshold:contextWindow的 70%(如果不可用则为80000)
agents.defaults.agentRuntime.id 单独配置。- 显式启用
- 自定义阈值
- 禁用
适用于兼容端点,例如 Azure OpenAI Responses:
responsesServerCompaction 仅控制 context_management 的注入。直接的 OpenAI Responses 模型仍会强制 store: true,除非兼容性设置了 supportsStore: false。严格代理式 GPT 模式
严格代理式 GPT 模式
对于 使用
openai/* 上的 GPT-5 系列运行,OpenClaw 可以使用更严格的嵌入式执行契约:strict-agentic 时,OpenClaw:- 当存在可用工具操作时,不再将仅规划的一轮视为成功进展
- 使用“立即执行”引导重试该轮
- 为较大的工作自动启用
update_plan - 如果模型持续规划而不执行,则显示明确的阻塞状态
仅适用于 OpenAI 和 Codex 的 GPT-5 系列运行。其他提供程序和较旧的模型系列保持默认行为。
原生 vs OpenAI 兼容路由
原生 vs OpenAI 兼容路由
OpenClaw 会将直接 OpenAI、Codex 和 Azure OpenAI 端点,与通用的 OpenAI 兼容
/v1 代理区别对待:原生路由(openai/*、Azure OpenAI):- 仅对支持 OpenAI
noneeffort 的模型保留reasoning: { effort: "none" } - 对拒绝
reasoning.effort: "none"的模型或代理省略已禁用的 reasoning - 默认将工具 schema 设为严格模式
- 仅在已验证的原生主机上附加隐藏归因请求头
- 保留仅 OpenAI 的请求形状(
service_tier、store、reasoning 兼容性、prompt-cache 提示)
- 使用更宽松的兼容行为
- 从非原生的
openai-completions负载中去除 Completions 的store - 接受用于 OpenAI 兼容 Completions 代理的高级
params.extra_body/params.extraBody透传 JSON - 接受用于 OpenAI 兼容 Completions 代理(如 vLLM)的
params.chat_template_kwargs - 不强制严格工具 schema 或仅原生请求头
相关内容
模型选择
选择提供程序、模型引用和故障转移行为。
图像生成
共享的图像工具参数和提供程序选择。
视频生成
共享的视频工具参数和提供程序选择。
OAuth 和身份验证
身份验证详情和凭据复用规则。