Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

OpenAI 为 GPT 模型提供开发者 API,Codex 也可以通过 OpenAI 的 Codex 客户端作为 ChatGPT 方案的编码代理使用。OpenClaw 会将这些接口分开,以便配置保持可预测。 OpenClaw 支持三种 OpenAI 系路由。大多数希望获得 Codex 行为的 ChatGPT/Codex 订阅用户 应使用原生 Codex 应用服务器运行时。模型前缀选择提供方/模型名称;单独的运行时设置选择 嵌入式代理循环由谁执行:
  • API key - 直接 OpenAI Platform 访问,按使用量计费(openai/* 模型)
  • Codex subscription with native Codex runtime - ChatGPT/Codex 登录加上 Codex 应用服务器执行(openai/* 模型加上 agents.defaults.agentRuntime.id: "codex"
  • Codex subscription through PI - 使用正常 OpenClaw PI 运行器的 ChatGPT/Codex 登录(openai-codex/* 模型)
OpenAI 明确支持在 OpenClaw 之类的外部工具和工作流中使用订阅 OAuth。 提供方、模型、运行时和通道是分开的层。如果这些标签 混在一起了,请在更改配置前先阅读 代理运行时

快速选择

GoalUseNotes
ChatGPT/Codex subscription with native Codex runtimeopenai/gpt-5.5 plus agentRuntime.id: "codex"Recommended Codex setup for most users. Sign in with openai-codex auth.
Direct API-key billingopenai/gpt-5.5Set OPENAI_API_KEY or run OpenAI API-key onboarding.
ChatGPT/Codex subscription auth through PIopenai-codex/gpt-5.5Use only when you intentionally want the normal PI runner.
Image generation or editingopenai/gpt-image-2Works with either OPENAI_API_KEY or OpenAI Codex OAuth.
Transparent-background imagesopenai/gpt-image-1.5Use outputFormat=png or webp and openai.background=transparent.

命名映射

这些名称相似,但不能互换:
你看到的名称层级含义
openai提供方前缀直接 OpenAI Platform API 路径。
openai-codex提供方前缀通过正常 OpenClaw PI 运行器的 OpenAI Codex OAuth/订阅路径。
codex 插件插件随 OpenClaw 捆绑的插件,提供原生 Codex 应用服务器运行时和 /codex 聊天控制。
agentRuntime.id: codex代理运行时为嵌入式轮次强制使用原生 Codex 应用服务器挂载。
/codex ...聊天命令集从对话中绑定/控制 Codex 应用服务器线程。
runtime: "acp", agentId: "codex"ACP 会话路径通过 ACP/acpx 运行 Codex 的显式回退路径。
这意味着一个配置可以有意同时包含 openai-codex/*codex 插件。当你希望通过 PI 使用 Codex OAuth,同时也希望 可用原生 /codex 聊天控制时,这是有效的。openclaw doctor 会对这种 组合发出警告,以便你确认它是有意为之;它不会重写配置。
GPT-5.5 可通过直接 OpenAI Platform API 密钥访问以及订阅/OAuth 路由获得。对于 ChatGPT/Codex 订阅加原生 Codex 执行,请使用 openai/gpt-5.5 并搭配 agentRuntime.id: "codex"。仅在通过 PI 使用 Codex OAuth 时使用 openai-codex/gpt-5.5,或者在直接使用 OPENAI_API_KEY 流量时使用不带 Codex 运行时覆盖的 openai/gpt-5.5
启用 OpenAI 插件,或选择 openai-codex/* 模型,并不会 启用捆绑的 Codex 应用服务器插件。只有当你显式选择原生 Codex 挂载并使用 agentRuntime.id: "codex",或者使用旧版 codex/* 模型引用时,OpenClaw 才会启用该插件。 如果捆绑的 codex 插件已启用,但 openai-codex/* 仍然通过 PI 解析, openclaw doctor 会发出警告并保持路由不变。

OpenClaw 功能覆盖

OpenAI 能力OpenClaw 接口状态
聊天 / Responsesopenai/<model> 模型提供方
Codex 订阅模型openai-codex/<model> 搭配 openai-codex OAuth
Codex 应用服务器挂载openai/<model> 搭配 agentRuntime.id: codex
服务器端网页搜索原生 OpenAI Responses 工具是,在启用网页搜索且未固定提供方时
图像image_generate
视频video_generate
文本转语音messages.tts.provider: "openai" / tts
批量语音转文本tools.media.audio / 媒体理解
流式语音转文本Voice Call streaming.provider: "openai"
实时语音Voice Call realtime.provider: "openai" / Control UI Talk
嵌入memory embedding provider

内存嵌入

OpenClaw 可以使用 OpenAI,或 OpenAI 兼容的嵌入端点,来进行 memory_search 索引和查询嵌入:
{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}
对于需要非对称嵌入标签的 OpenAI 兼容端点,请在 memorySearch 下设置 queryInputTypedocumentInputType。OpenClaw 会将这些作为特定提供方的 input_type 请求字段转发:查询嵌入使用 queryInputType;已索引的内存块和批量索引使用 documentInputType。完整示例请参见 内存配置参考

快速开始

选择你偏好的认证方式并按照设置步骤操作。
最适合: 直接 API 访问和按使用量计费。
1

获取你的 API 密钥

OpenAI Platform 控制台 创建或复制一个 API 密钥。
2

运行引导

openclaw onboard --auth-choice openai-api-key
或直接传入密钥:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

验证模型可用

openclaw models list --provider openai

路由摘要

模型引用运行时配置路由认证
openai/gpt-5.5省略 / agentRuntime.id: "pi"直接 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.4-mini省略 / agentRuntime.id: "pi"直接 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.5agentRuntime.id: "codex"Codex 应用服务器挂载Codex 应用服务器
除非你显式强制使用 Codex 应用服务器挂载,否则 openai/* 是直接 OpenAI API 密钥路径。对 Codex OAuth 通过默认 PI 运行器请使用 openai-codex/*,或者使用带 agentRuntime.id: "codex"openai/gpt-5.5 来进行原生 Codex 应用服务器执行。

配置示例

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
OpenClaw 公开 openai/gpt-5.3-codex-spark。在线 OpenAI API 请求会拒绝该模型,当前的 Codex 目录也未公开它。

原生 Codex app-server 认证

原生 Codex app-server harness 使用 openai/* 模型引用以及 agentRuntime.id: "codex",但其认证仍然基于账户。OpenClaw 按以下顺序选择认证方式:
  1. 显式绑定到 agent 的 OpenClaw openai-codex 认证配置文件。
  2. app-server 现有的账户,例如本地 Codex CLI 的 ChatGPT 登录。
  3. 仅对于本地 stdio 启动的 app-server:当 app-server 报告没有账户但仍需要 OpenAI 认证时,先使用 CODEX_API_KEY,再使用 OPENAI_API_KEY
这意味着,本地 ChatGPT/Codex 订阅登录并不会因为网关进程也拥有用于直接 OpenAI 模型或 embeddings 的 OPENAI_API_KEY 就被替换掉。环境变量 API key 回退仅适用于本地 stdio 的无账户路径;它不会发送到 WebSocket app-server 连接。当选择了订阅式 Codex 配置文件时,OpenClaw 也会将 CODEX_API_KEYOPENAI_API_KEY 排除在启动的 stdio app-server 子进程之外,并通过 app-server 登录 RPC 发送所选凭据。

图像生成

捆绑的 openai 插件通过 image_generate 工具注册图像生成。 它通过同一个 openai/gpt-image-2 模型引用,支持 OpenAI API key 图像生成和 Codex OAuth 图像 生成。
能力OpenAI API keyCodex OAuth
模型引用openai/gpt-image-2openai/gpt-image-2
认证OPENAI_API_KEYOpenAI Codex OAuth 登录
传输方式OpenAI Images APICodex Responses 后端
每次请求最大图像数44
编辑模式已启用(最多 5 张参考图像)已启用(最多 5 张参考图像)
尺寸覆盖支持,包括 2K/4K 尺寸支持,包括 2K/4K 尺寸
宽高比 / 分辨率不转发到 OpenAI Images API在安全时映射为受支持的尺寸
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-2" },
    },
  },
}
有关共享工具参数、提供方选择和故障转移行为,请参见 图像生成
gpt-image-2 是 OpenAI 文本生成图像和图像编辑的默认模型。gpt-image-1.5gpt-image-1gpt-image-1-mini 仍然可以作为显式模型覆盖使用。要输出透明背景的 PNG/WebP,请使用 openai/gpt-image-1.5;当前的 gpt-image-2 API 会拒绝 background: "transparent" 对于透明背景请求,agent 应调用 image_generate,并设置 model: "openai/gpt-image-1.5"outputFormat: "png""webp",以及 background: "transparent";旧的 openai.background 提供方选项 仍然被接受。OpenClaw 也会通过将默认的 openai/gpt-image-2 透明 请求重写为 gpt-image-1.5 来保护公共 OpenAI 和 OpenAI Codex OAuth 路由;Azure 和自定义 OpenAI 兼容端点则保留 其已配置的部署/模型名称。 相同设置也可用于无头 CLI 运行:
openclaw infer image generate \
  --model openai/gpt-image-1.5 \
  --output-format png \
  --background transparent \
  --prompt "一张放在透明背景上的简洁红色圆形贴纸" \
  --json
当从输入文件开始进行编辑时,请在 openclaw infer image edit 中使用相同的 --output-format--background 标志。 --openai-background 仍然可作为 OpenAI 专用别名使用。 对于 Codex OAuth 安装,请保持相同的 openai/gpt-image-2 引用。当配置了 openai-codex OAuth 配置文件时,OpenClaw 会解析该存储的 OAuth 访问令牌,并通过 Codex Responses 后端发送图像请求。它不会先尝试 OPENAI_API_KEY,也不会在该请求中静默回退到 API key。若想直接使用 OpenAI Images API 路径,请显式将 models.providers.openai 配置为 API key、 自定义 base URL 或 Azure 端点。 如果该自定义图像端点位于受信任的 LAN/私有地址上,还要设置 browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非启用此选项,OpenClaw 会继续阻止私有/内部的 OpenAI 兼容图像端点。 生成:
/tool image_generate model=openai/gpt-image-2 prompt="OpenClaw 在 macOS 上的精致发布海报" size=3840x2160 count=1
生成透明 PNG:
/tool image_generate model=openai/gpt-image-1.5 prompt="一个放在透明背景上的简洁红色圆形贴纸" outputFormat=png background=transparent
编辑:
/tool image_generate model=openai/gpt-image-2 prompt="保留物体形状,将材质改为半透明玻璃" image=/path/to/reference.png size=1024x1536

视频生成

捆绑的 openai 插件通过 video_generate 工具注册视频生成。
能力
默认模型openai/sora-2
模式文本生成视频、图像生成视频、单视频编辑
参考输入1 张图像或 1 段视频
尺寸覆盖支持
其他覆盖aspectRatioresolutionaudiowatermark 会被忽略,并给出工具警告
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
有关共享工具参数、提供方选择和故障转移行为,请参见 视频生成

GPT-5 提示贡献

OpenClaw 为跨提供方的 GPT-5 系列运行添加了一个共享的 GPT-5 提示贡献。它按模型 id 生效,因此 openai-codex/gpt-5.5openai/gpt-5.5openrouter/openai/gpt-5.5opencode/gpt-5.5 以及其他兼容的 GPT-5 引用都会收到相同的覆盖层。较旧的 GPT-4.x 模型则不会。 捆绑的原生 Codex harness 通过 Codex app-server 开发者指令使用相同的 GPT-5 行为和心跳覆盖层,因此通过 agentRuntime.id: "codex" 强制运行的 openai/gpt-5.x 会话,即使其余 harness 提示由 Codex 负责,也会保留相同的跟进和主动心跳指导。 GPT-5 贡献增加了一个带标签的行为契约,涵盖人格持久性、执行安全、工具纪律、输出形态、完成检查和验证。与频道相关的回复和静默消息行为仍保留在共享的 OpenClaw 系统提示和出站投递策略中。GPT-5 指导始终对匹配模型启用。友好交互风格层是独立的,并且可配置。
效果
"friendly"(默认)启用友好交互风格层
"on""friendly" 的别名
"off"仅禁用友好风格层
{
  agents: {
    defaults: {
      promptOverlays: {
        gpt5: { personality: "friendly" },
      },
    },
  },
}
运行时值不区分大小写,因此 "Off""off" 都会禁用友好风格层。
当共享的 agents.defaults.promptOverlays.gpt5.personality 设置未配置时,旧版 plugins.entries.openai.config.personality 仍会作为兼容性回退被读取。

语音与音频

捆绑的 openai 插件为 messages.tts 表面注册语音合成。
设置配置路径默认值
模型messages.tts.providers.openai.modelgpt-4o-mini-tts
声音messages.tts.providers.openai.voicecoral
速度messages.tts.providers.openai.speed(未设置)
指令messages.tts.providers.openai.instructions(未设置,仅 gpt-4o-mini-tts
格式messages.tts.providers.openai.responseFormat语音备注为 opus,文件为 mp3
API keymessages.tts.providers.openai.apiKey回退到 OPENAI_API_KEY
Base URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
Extra bodymessages.tts.providers.openai.extraBody / extra_body(未设置)
可用模型:gpt-4o-mini-ttstts-1tts-1-hd。可用声音:alloyashballadcedarcoralechofablejunipermarinonyxnovasageshimmerverseextraBody 会在 OpenClaw 生成字段之后合并到 /audio/speech 请求 JSON 中,因此可用于需要额外键(如 lang)的 OpenAI 兼容端点。原型键会被忽略。
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
设置 OPENAI_TTS_BASE_URL 可覆盖 TTS base URL,而不影响 chat API 端点。
捆绑的 openai 插件通过 OpenClaw 的媒体理解转录表面注册批量语音转文本。
  • 默认模型:gpt-4o-transcribe
  • 端点:OpenAI REST /v1/audio/transcriptions
  • 输入路径:multipart 音频文件上传
  • 由 OpenClaw 在所有入站音频转录使用 tools.media.audio 的地方支持,包括 Discord 语音频道片段和频道音频附件
要强制入站音频转录使用 OpenAI:
{
  tools: {
    media: {
      audio: {
        models: [
          {
            type: "provider",
            provider: "openai",
            model: "gpt-4o-transcribe",
          },
        ],
      },
    },
  },
}
当共享的音频媒体配置或单次转录请求提供语言和提示提示时,它们会被转发给 OpenAI。
捆绑的 openai 插件为 Voice Call 插件注册实时转录。
设置配置路径默认值
模型plugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
语言...openai.language(未设置)
提示...openai.prompt(未设置)
静音时长...openai.silenceDurationMs800
VAD 阈值...openai.vadThreshold0.5
API key...openai.apiKey回退到 OPENAI_API_KEY
使用到 wss://api.openai.com/v1/realtime 的 WebSocket 连接,并使用 G.711 u-law(g711_ulaw / audio/pcmu)音频。此流式提供方仅用于 Voice Call 的实时转录路径;Discord 语音当前会录制短片段并使用批量 tools.media.audio 转录路径。
捆绑的 openai 插件为 Voice Call 插件注册实时语音。
设置配置路径默认值
模型plugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime-1.5
声音...openai.voicealloy
温度...openai.temperature0.8
VAD 阈值...openai.vadThreshold0.5
静音时长...openai.silenceDurationMs500
API key...openai.apiKey回退到 OPENAI_API_KEY
支持通过 azureEndpointazureDeployment 配置键为后端实时桥接使用 Azure OpenAI。支持双向工具调用。使用 G.711 u-law 音频格式。
Control UI Talk 使用 OpenAI 浏览器实时会话,配合 Gateway 签发的临时客户端密钥,并通过直接的浏览器 WebRTC SDP 交换与 OpenAI Realtime API 通信。可使用 OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts 进行维护者现场验证;OpenAI 分支会在 Node 中签发客户端密钥,使用伪造麦克风媒体生成浏览器 SDP offer,将其发布到 OpenAI,并在不记录密钥的情况下应用 SDP answer。

Azure OpenAI 端点

捆绑的 openai 提供程序可以通过覆盖基础 URL,将 Azure OpenAI 资源用于图像 生成。在图像生成路径上,OpenClaw 会在 models.providers.openai.baseUrl 上检测 Azure 主机名,并自动切换为 Azure 的请求格式。
实时语音使用单独的配置路径 (plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint), 不受 models.providers.openai.baseUrl 影响。有关其 Azure 设置,请参见 Voice and speech 下的 Realtime voice 折叠面板。
在以下情况下使用 Azure OpenAI:
  • 你已经拥有 Azure OpenAI 订阅、配额或企业协议
  • 你需要 Azure 提供的区域性数据驻留或合规控制
  • 你希望将流量保留在现有的 Azure 租户内

配置

对于通过捆绑的 openai 提供程序进行的 Azure 图像生成,请将 models.providers.openai.baseUrl 指向你的 Azure 资源,并将 apiKey 设置为 Azure OpenAI 密钥(不是 OpenAI Platform 密钥):
{
  models: {
    providers: {
      openai: {
        baseUrl: "https://<your-resource>.openai.azure.com",
        apiKey: "<azure-openai-api-key>",
      },
    },
  },
}
OpenClaw 会识别以下 Azure 主机后缀,以用于 Azure 图像生成 路由:
  • *.openai.azure.com
  • *.services.ai.azure.com
  • *.cognitiveservices.azure.com
对于在已识别的 Azure 主机上的图像生成请求,OpenClaw:
  • 发送 api-key 请求头,而不是 Authorization: Bearer
  • 使用部署范围路径(/openai/deployments/{deployment}/...
  • 为每个请求追加 ?api-version=...
  • 对 Azure 图像生成调用使用默认 600 秒请求超时。 单次调用的 timeoutMs 仍然会覆盖此默认值。
其他基础 URL(公共 OpenAI、OpenAI 兼容代理)会保持标准的 OpenAI 图像请求格式。
openai 提供程序图像生成路径的 Azure 路由要求 OpenClaw 2026.4.22 或更高版本。较早版本会将任何自定义的 openai.baseUrl 当作公共 OpenAI 端点处理,并在 Azure 图像部署上失败。

API 版本

设置 AZURE_OPENAI_API_VERSION 以为 Azure 图像生成路径固定一个特定的 Azure 预览版或 GA 版本:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
当该变量未设置时,默认值为 2024-12-01-preview

模型名称是部署名称

Azure OpenAI 将模型绑定到部署。对于通过捆绑的 openai 提供程序路由的 Azure 图像生成请求, OpenClaw 中的 model 字段必须是你在 Azure 门户中配置的 Azure 部署名称, 而不是公共 OpenAI 模型 id。 如果你创建了一个名为 gpt-image-2-prod 的部署,用于提供 gpt-image-2
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
相同的部署名称规则也适用于通过捆绑的 openai 提供程序路由的图像生成调用。

区域可用性

Azure 图像生成目前仅在部分区域可用 (例如 eastus2swedencentralpolandcentralwestus3uaenorth)。在创建部署之前,请查看 Microsoft 的当前区域列表,并确认 特定模型在你的区域中可用。

参数差异

Azure OpenAI 和公共 OpenAI 并不总是接受相同的图像参数。 Azure 可能会拒绝公共 OpenAI 允许的选项(例如 gpt-image-2 上的某些 background 值),或者仅在特定模型版本上提供这些选项。这些差异来自 Azure 及其底层模型,而不是 OpenClaw。如果 Azure 请求因验证错误而失败,请在 Azure 门户中检查你的特定部署和 API 版本所支持的参数集合。
Azure OpenAI 使用原生传输和兼容行为,但不会接收 OpenClaw 的隐藏归因请求头——请参见 Advanced configuration 下的 Native vs OpenAI-compatible routes 折叠面板。对于 Azure 上的聊天或 Responses 流量(不只是图像生成),请使用 入门流程或专用的 Azure 提供程序配置——仅 openai.baseUrl 并不会自动使用 Azure 的 API/身份验证格式。 另有一个单独的 azure-openai-responses/* 提供程序;请参见下面的服务器端压缩折叠面板。

高级配置

OpenClaw 对 openai/*openai-codex/* 都默认采用 WebSocket 优先、SSE 回退("auto")。"auto" 模式下,OpenClaw:
  • 在回退到 SSE 之前,会重试一次早期的 WebSocket 失败
  • 失败后,会将 WebSocket 标记为约降级 60 秒,并在冷却期间使用 SSE
  • 为重试和重新连接附加稳定的会话和轮次身份请求头
  • 在不同传输变体之间规范化用量计数器(input_tokens / prompt_tokens
行为
"auto"(默认)WebSocket 优先,SSE 回退
"sse"仅强制使用 SSE
"websocket"仅强制使用 WebSocket
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { transport: "auto" },
        },
        "openai-codex/gpt-5.5": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
相关 OpenAI 文档:
OpenClaw 默认对 openai/*openai-codex/* 启用 WebSocket 预热,以降低首轮延迟。
// 禁用预热
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw 为 openai/*openai-codex/* 暴露了一个共享的快速模式开关:
  • 聊天/UI: /fast status|on|off
  • 配置: agents.defaults.models["<provider>/<model>"].params.fastMode
启用后,OpenClaw 会将快速模式映射为 OpenAI 的优先处理(service_tier = "priority")。现有的 service_tier 值会被保留,并且快速模式不会重写 reasoningtext.verbosity
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { fastMode: true } },
      },
    },
  },
}
会话覆盖优先于配置。在 Sessions UI 中清除会话覆盖后,会使该会话恢复为配置的默认值。
OpenAI 的 API 通过 service_tier 暴露优先处理功能。在 OpenClaw 中按模型设置:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { serviceTier: "priority" } },
      },
    },
  },
}
支持的值:autodefaultflexpriority
serviceTier 只会转发到原生 OpenAI 端点(api.openai.com)和原生 Codex 端点(chatgpt.com/backend-api)。如果你通过代理路由任一提供程序,OpenClaw 会保留 service_tier 不变。
对于直接的 OpenAI Responses 模型(api.openai.com 上的 openai/*),OpenAI 插件的 Pi-harness 流包装器会自动启用服务器端压缩:
  • 强制 store: true(除非模型兼容性设置了 supportsStore: false
  • 注入 context_management: [{ type: "compaction", compact_threshold: ... }]
  • 默认 compact_thresholdcontextWindow 的 70%(如果不可用则为 80000
这适用于内置的 Pi harness 路径,以及嵌入式运行所使用的 OpenAI 提供程序钩子。原生 Codex 应用服务器 harness 通过 Codex 自行管理其上下文,并通过 agents.defaults.agentRuntime.id 单独配置。
适用于兼容端点,例如 Azure OpenAI Responses:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.5": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction 仅控制 context_management 的注入。直接的 OpenAI Responses 模型仍会强制 store: true,除非兼容性设置了 supportsStore: false
对于 openai/* 上的 GPT-5 系列运行,OpenClaw 可以使用更严格的嵌入式执行契约:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
使用 strict-agentic 时,OpenClaw:
  • 当存在可用工具操作时,不再将仅规划的一轮视为成功进展
  • 使用“立即执行”引导重试该轮
  • 为较大的工作自动启用 update_plan
  • 如果模型持续规划而不执行,则显示明确的阻塞状态
仅适用于 OpenAI 和 Codex 的 GPT-5 系列运行。其他提供程序和较旧的模型系列保持默认行为。
OpenClaw 会将直接 OpenAI、Codex 和 Azure OpenAI 端点,与通用的 OpenAI 兼容 /v1 代理区别对待:原生路由openai/*、Azure OpenAI):
  • 仅对支持 OpenAI none effort 的模型保留 reasoning: { effort: "none" }
  • 对拒绝 reasoning.effort: "none" 的模型或代理省略已禁用的 reasoning
  • 默认将工具 schema 设为严格模式
  • 仅在已验证的原生主机上附加隐藏归因请求头
  • 保留仅 OpenAI 的请求形状(service_tierstore、reasoning 兼容性、prompt-cache 提示)
代理/兼容路由:
  • 使用更宽松的兼容行为
  • 从非原生的 openai-completions 负载中去除 Completions 的 store
  • 接受用于 OpenAI 兼容 Completions 代理的高级 params.extra_body/params.extraBody 透传 JSON
  • 接受用于 OpenAI 兼容 Completions 代理(如 vLLM)的 params.chat_template_kwargs
  • 不强制严格工具 schema 或仅原生请求头
Azure OpenAI 使用原生传输和兼容行为,但不会接收隐藏归因请求头。

相关内容

模型选择

选择提供程序、模型引用和故障转移行为。

图像生成

共享的图像工具参数和提供程序选择。

视频生成

共享的视频工具参数和提供程序选择。

OAuth 和身份验证

身份验证详情和凭据复用规则。