LLM/模型提供商(不是 WhatsApp/Telegram 之类的聊天渠道)的参考文档。关于模型选择规则,请参见 Models。Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
快速规则
模型引用与 CLI 辅助工具
模型引用与 CLI 辅助工具
- 模型引用使用
provider/model(示例:opencode/claude-opus-4-6)。 agents.defaults.models在设置后会作为允许列表。- CLI 辅助工具:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 models.providers.*.contextWindow/contextTokens/maxTokens设置提供商级默认值;models.providers.*.models[].contextWindow/contextTokens/maxTokens按模型覆盖这些默认值。- 回退规则、冷却探测和会话覆盖持久化: Model failover。
添加提供商认证不会更改你的主模型
添加提供商认证不会更改你的主模型
openclaw configure 在你添加或重新认证提供商时会保留现有的 agents.defaults.model.primary。提供商插件仍可能在其认证配置补丁中返回推荐的默认模型,但当主模型已经存在时,configure 会把这理解为“使该模型可用”,而不是“替换当前主模型”。若要有意切换默认模型,请使用 openclaw models set <provider/model> 或 openclaw models auth login --provider <id> --set-default。OpenAI 提供商/运行时分离
OpenAI 提供商/运行时分离
OpenAI 系列路由以缀前区分:
openai/<model>再加上agents.defaults.agentRuntime.id: "codex"时,使用原生 Codex app-server harness。这通常是 ChatGPT/Codex 订阅方案。openai-codex/<model>使用 PI 中的 Codex OAuth。- 不带 Codex 运行时覆盖的
openai/<model>使用 PI 中直接的 OpenAI API key 提供商。
openai-codex/<model> 属于 OpenAI 插件,而 Codex 插件则由 agentRuntime.id: "codex" 或旧式 codex/<model> 引用启用。当 agentRuntime.id: "codex" 已设置时,GPT-5.5 可通过原生 Codex app-server harness 使用;在 PI 中可通过 openai-codex/gpt-5.5 进行 Codex OAuth;当你的账户暴露了它时,还可通过 PI 中的 openai/gpt-5.5 直接使用 API key 流量。CLI 运行时
CLI 运行时
CLI 运行时使用相同的分离方式:先选择规范模型引用,如
anthropic/claude-*、google/gemini-* 或 openai/gpt-*,然后在想使用本地 CLI 后端时,将 agents.defaults.agentRuntime.id 设置为 claude-cli、google-gemini-cli 或 codex-cli。旧式 claude-cli/*、google-gemini-cli/* 和 codex-cli/* 引用会迁移回规范提供商引用,并将运行时单独记录。插件拥有的提供商行为
大多数特定提供商逻辑都位于提供商插件(registerProvider(...))中,而 OpenClaw 保留通用推理循环。插件负责上手引导、模型目录、认证环境变量映射、传输/配置规范化、工具 schema 清理、失败切换分类、OAuth 刷新、用量上报、思考/推理配置文件等。
完整的提供商 SDK 钩子与捆绑插件示例列表见 Provider plugins。需要完全自定义请求执行器的提供商,则属于更深层的扩展面。
提供商拥有的运行器行为位于显式提供商钩子上,例如重放策略、工具 schema 规范化、流包装,以及传输/请求辅助工具。旧的
ProviderPlugin.capabilities 静态集合仅用于兼容,不再被共享运行器逻辑读取。API key 轮换
密钥来源与优先级
密钥来源与优先级
通过以下方式配置多个密钥:
OPENCLAW_LIVE_<PROVIDER>_KEY(单个实时覆盖,优先级最高)<PROVIDER>_API_KEYS(逗号或分号分隔列表)<PROVIDER>_API_KEY(主密钥)<PROVIDER>_API_KEY_*(编号列表,例如<PROVIDER>_API_KEY_1)
GOOGLE_API_KEY 作为回退项。密钥选择顺序会保留优先级并去重。何时触发轮换
何时触发轮换
- 只有在速率限制响应时才会使用下一个密钥重试请求(例如
429、rate_limit、quota、resource exhausted、Too many concurrent requests、ThrottlingException、concurrency limit reached、workers_ai ... quota limit exceeded,或周期性的用量限制消息)。 - 非速率限制失败会立即失败;不会尝试密钥轮换。
- 当所有候选密钥都失败时,返回最后一次尝试的最终错误。
内置提供商(pi-ai 目录)
OpenClaw 自带 pi‑ai 目录。这些提供商不需要models.providers 配置;只需设置认证并选择一个模型即可。
OpenAI
- 提供商:
openai - 认证:
OPENAI_API_KEY - 可选轮换:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2,以及OPENCLAW_LIVE_OPENAI_KEY(单个覆盖) - 示例模型:
openai/gpt-5.5、openai/gpt-5.4-mini - 如果某个具体安装或 API key 行为不同,可用
openclaw models list --provider openai验证账号/模型可用性。 - CLI:
openclaw onboard --auth-choice openai-api-key - 默认传输方式为
auto(优先 WebSocket,失败后回退到 SSE) - 可通过
agents.defaults.models["openai/<model>"].params.transport按模型覆盖("sse"、"websocket"或"auto") - OpenAI Responses WebSocket 预热默认启用,通过
params.openaiWsWarmup(true/false)控制 - OpenAI 优先级处理可通过
agents.defaults.models["openai/<model>"].params.serviceTier启用 /fast和params.fastMode会将直接的openai/*Responses 请求映射为api.openai.com上的service_tier=priority- 当你想使用显式层级而不是共享
/fast开关时,请使用params.serviceTier - 隐藏的 OpenClaw 归因请求头(
originator、version、User-Agent)只会应用于发往api.openai.com的原生 OpenAI 流量,不会用于通用的 OpenAI 兼容代理 - 原生 OpenAI 路由还会保留 Responses
store、提示缓存提示,以及 OpenAI reasoning-compat payload 形状;代理路由不会保留这些 openai/gpt-5.3-codex-spark在 OpenClaw 中被有意屏蔽,因为实时 OpenAI API 请求会拒绝它,而当前 Codex 目录也未公开该模型
Anthropic
- 提供商:
anthropic - 认证:
ANTHROPIC_API_KEY - 可选轮换:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2,以及OPENCLAW_LIVE_ANTHROPIC_KEY(单个覆盖) - 示例模型:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 直接的公共 Anthropic 请求支持共享的
/fast开关和params.fastMode,包括发送到api.anthropic.com的 API key 和 OAuth 认证流量;OpenClaw 会将其映射为 Anthropicservice_tier(autovsstandard_only) - 首选的 Claude CLI 配置会保持模型引用为规范形式,并单独选择 CLI 后端:
anthropic/claude-opus-4-7搭配agents.defaults.agentRuntime.id: "claude-cli"。旧式claude-cli/claude-opus-4-7引用仍可用于兼容。
Anthropic 告诉我们,OpenClaw 风格的 Claude CLI 用法已再次被允许,因此 OpenClaw 将 Claude CLI 复用和
claude -p 用法视为该集成的授权方式,除非 Anthropic 发布新的政策。Anthropic setup-token 仍然作为受支持的 OpenClaw token 路径可用,但 OpenClaw 现在在可用时优先使用 Claude CLI 复用和 claude -p。OpenAI Codex OAuth
- Provider:
openai-codex - Auth: OAuth (ChatGPT)
- PI model ref:
openai-codex/gpt-5.5 - Native Codex app-server harness ref:
openai/gpt-5.5withagents.defaults.agentRuntime.id: "codex" - Native Codex app-server harness docs: Codex harness
- Legacy model refs:
codex/gpt-* - Plugin boundary:
openai-codex/*loads the OpenAI plugin; the native Codex app-server plugin is selected only by the Codex harness runtime or legacycodex/*refs. - CLI:
openclaw onboard --auth-choice openai-codexoropenclaw models auth login --provider openai-codex - Default transport is
auto(WebSocket-first, SSE fallback) - Override per PI model via
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", or"auto") params.serviceTieris also forwarded on native Codex Responses requests (chatgpt.com/backend-api)- Hidden OpenClaw attribution headers (
originator,version,User-Agent) are only attached on native Codex traffic tochatgpt.com/backend-api, not generic OpenAI-compatible proxies - Shares the same
/fasttoggle andparams.fastModeconfig as directopenai/*; OpenClaw maps that toservice_tier=priority openai-codex/gpt-5.5uses the Codex catalog nativecontextWindow = 400000and default runtimecontextTokens = 272000; override the runtime cap withmodels.providers.openai-codex.models[].contextTokens- Policy note: OpenAI Codex OAuth is explicitly supported for external tools/workflows like OpenClaw.
- For the common subscription plus native Codex runtime route, sign in with
openai-codexauth but configureopenai/gpt-5.5plusagents.defaults.agentRuntime.id: "codex". - Use
openai-codex/gpt-5.5only when you want the Codex OAuth/subscription route through PI; useopenai/gpt-5.5without the Codex runtime override when your API-key setup and local catalog expose the public API route.
其他订阅式托管选项
GLM 模型
Z.AI Coding Plan 或通用 API 端点。
MiniMax
MiniMax Coding Plan OAuth 或 API key 访问。
Qwen Cloud
Qwen Cloud 提供商表面,以及阿里巴巴 DashScope 和 Coding Plan 端点映射。
OpenCode
- 认证:
OPENCODE_API_KEY(或OPENCODE_ZEN_API_KEY) - Zen 运行时提供商:
opencode - Go 运行时提供商:
opencode-go - 示例模型:
opencode/claude-opus-4-6、opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zen或openclaw onboard --auth-choice opencode-go
Google Gemini(API key)
- 提供商:
google - 认证:
GEMINI_API_KEY - 可选轮换:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEY回退,以及OPENCLAW_LIVE_GEMINI_KEY(单个覆盖) - 示例模型:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 兼容性:使用
google/gemini-3.1-flash-preview的旧式 OpenClaw 配置会被规范化为google/gemini-3-flash-preview - 别名:
google/gemini-3.1-pro会被接受并规范化为 Google 实际 Gemini API idgoogle/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - 思考:
/think adaptive使用 Google 动态思考。Gemini 3/3.1 省略固定的thinkingLevel;Gemini 2.5 发送thinkingBudget: -1。 - 直接的 Gemini 运行也接受
agents.defaults.models["google/<model>"].params.cachedContent(或旧式cached_content),以转发提供商原生的cachedContents/...句柄;Gemini 缓存命中会作为 OpenClawcacheRead暴露
Google Vertex 和 Gemini CLI
- 提供商:
google-vertex、google-gemini-cli - 认证:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程
google 插件的一部分一起发布。
登录
google-gemini-cli/gemini-3-flash-preview。你不需要把 client id 或 secret 粘贴到 openclaw.json 中。CLI 登录流程会将 token 存储在 gateway 主机上的 auth 配置文件里。response 中解析;用量会回退到 stats,其中 stats.cached 会被规范化为 OpenClaw cacheRead。
Z.AI(GLM)
- 提供商:
zai - 认证:
ZAI_API_KEY - 示例模型:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- 别名:
z.ai/*和z-ai/*会规范化为zai/* zai-api-key会自动检测匹配的 Z.AI 端点;zai-coding-global、zai-coding-cn、zai-global和zai-cn会强制使用特定入口
- 别名:
Vercel AI Gateway
- 提供商:
vercel-ai-gateway - 认证:
AI_GATEWAY_API_KEY - 示例模型:
vercel-ai-gateway/anthropic/claude-opus-4.6、vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- 提供商:
kilocode - 认证:
KILOCODE_API_KEY - 示例模型:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - 基础 URL:
https://api.kilo.ai/api/gateway/ - 静态回退目录会随附
kilocode/kilo/auto;实时https://api.kilo.ai/api/gateway/models发现可以进一步扩展运行时目录。 kilocode/kilo/auto背后的精确上游路由由 Kilo Gateway 负责,而不是在 OpenClaw 中硬编码。
其他捆绑的提供商插件
| Provider | Id | Auth env | Example model |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan | BYTEPLUS_API_KEY | byteplus-plan/ark-code-latest |
| Cerebras | cerebras | CEREBRAS_API_KEY | cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway | CLOUDFLARE_AI_GATEWAY_API_KEY | — |
| DeepInfra | deepinfra | DEEPINFRA_API_KEY | deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek | DEEPSEEK_API_KEY | deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot | COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN | — |
| Groq | groq | GROQ_API_KEY | — |
| Hugging Face Inference | huggingface | HUGGINGFACE_HUB_TOKEN or HF_TOKEN | huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode | KILOCODE_API_KEY | kilocode/kilo/auto |
| Kimi Coding | kimi | KIMI_API_KEY or KIMICODE_API_KEY | kimi/kimi-code |
| MiniMax | minimax / minimax-portal | MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN | minimax/MiniMax-M2.7 |
| Mistral | mistral | MISTRAL_API_KEY | mistral/mistral-large-latest |
| Moonshot | moonshot | MOONSHOT_API_KEY | moonshot/kimi-k2.6 |
| NVIDIA | nvidia | NVIDIA_API_KEY | nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter | OPENROUTER_API_KEY | openrouter/auto |
| Qianfan | qianfan | QIANFAN_API_KEY | qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen | QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY | qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan | STEPFUN_API_KEY | stepfun/step-3.5-flash |
| Together | together | TOGETHER_API_KEY | together/moonshotai/Kimi-K2.5 |
| Venice | venice | VENICE_API_KEY | — |
| Vercel AI Gateway | vercel-ai-gateway | AI_GATEWAY_API_KEY | vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan | VOLCANO_ENGINE_API_KEY | volcengine-plan/ark-code-latest |
| xAI | xai | XAI_API_KEY | xai/grok-4.3 |
| Xiaomi | xiaomi | XIAOMI_API_KEY | xiaomi/mimo-v2-flash |
值得注意的特殊行为
OpenRouter
OpenRouter
仅在经过验证的
openrouter.ai 路由上应用其应用归因请求头和 Anthropic cache_control 标记。DeepSeek、Moonshot 和 ZAI 引用可用于 OpenRouter 托管的提示缓存 TTL,但不会接收 Anthropic 缓存标记。作为类代理的 OpenAI 兼容路径,它会跳过仅限原生 OpenAI 的形状处理(serviceTier、Responses store、提示缓存提示、OpenAI reasoning-compat)。基于 Gemini 的引用只保留代理-Gemini 思维签名清理。Kilo Gateway
Kilo Gateway
基于 Gemini 的引用遵循相同的代理-Gemini 清理路径;
kilocode/kilo/auto 和其他不支持代理推理的引用会跳过代理推理注入。MiniMax
MiniMax
API key 上手会写入显式的仅文本 M2.7 聊天模型定义;图像理解仍保留在插件拥有的
MiniMax-VL-01 媒体提供商上。NVIDIA
NVIDIA
模型 id 使用
nvidia/<vendor>/<model> 命名空间(例如 nvidia/nvidia/nemotron-...,以及 nvidia/moonshotai/kimi-k2.5);选择器会保留字面上的 <provider>/<model-id> 组合,而发送到 API 的规范键仍保持单前缀。xAI
xAI
使用 xAI Responses 路径。
grok-4.3 是捆绑的默认聊天模型。/fast 或 params.fastMode: true 会将 grok-3、grok-3-mini、grok-4 和 grok-4-0709 重写为其 *-fast 变体。tool_stream 默认开启;可通过 agents.defaults.models["xai/<model>"].params.tool_stream=false 关闭。Cerebras
Cerebras
作为捆绑的
cerebras 提供商插件提供。GLM 使用 zai-glm-4.7;OpenAI 兼容的基础 URL 为 https://api.cerebras.ai/v1。通过 models.providers 提供(自定义/基础 URL)
使用 models.providers(或 models.json)来添加自定义提供商,或 OpenAI/Anthropic 兼容的代理。
下面许多内置的提供商插件已经发布了默认目录。只有在你想覆盖默认基础 URL、请求头或模型列表时,才使用显式的 models.providers.<id> 条目。
网关模型能力检查也会读取显式的 models.providers.<id>.models[] 元数据。如果自定义或代理模型支持图像,请在该模型上设置 input: ["text", "image"],这样 WebChat 和 node-origin 附件路径会将图像作为原生模型输入传递,而不是仅文本的媒体引用。
Moonshot AI(Kimi)
Moonshot 作为一个内置提供商插件发布。默认使用内置提供商,仅当你需要覆盖基础 URL 或模型元数据时,才添加显式的models.providers.moonshot 条目:
- 提供商:
moonshot - 认证:
MOONSHOT_API_KEY - 示例模型:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-key或openclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi 编程
Kimi Coding 使用 Moonshot AI 的 Anthropic 兼容端点:- 提供商:
kimi - 认证:
KIMI_API_KEY - 示例模型:
kimi/kimi-code
kimi/k2p5 仍然作为兼容性模型 ID 被接受。
火山引擎(豆包)
火山引擎提供对中国境内的豆包及其他模型的访问。- 提供商:
volcengine(coding:volcengine-plan) - 认证:
VOLCANO_ENGINE_API_KEY - 示例模型:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/* 目录会同时注册。
在 onboarding/configure 模型选择器中,Volcengine 认证选项会优先显示 volcengine/* 和 volcengine-plan/* 两类条目。如果这些模型尚未加载,OpenClaw 会回退到未过滤的目录,而不是显示一个空的按提供商分组选择器。
- 标准模型
- 编程模型(volcengine-plan)
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
BytePlus(国际版)
BytePlus ARK 为国际用户提供与火山引擎相同的模型访问能力。- 提供商:
byteplus(coding:byteplus-plan) - 认证:
BYTEPLUS_API_KEY - 示例模型:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/* 目录会同时注册。
在 onboarding/configure 模型选择器中,BytePlus 认证选项会优先显示 byteplus/* 和 byteplus-plan/* 两类条目。如果这些模型尚未加载,OpenClaw 会回退到未过滤的目录,而不是显示一个空的按提供商分组选择器。
- 标准模型
- 编程模型(byteplus-plan)
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Synthetic
Synthetic 通过synthetic 提供商提供 Anthropic 兼容模型:
- 提供商:
synthetic - 认证:
SYNTHETIC_API_KEY - 示例模型:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax 通过models.providers 配置,因为它使用自定义端点:
- MiniMax OAuth(全球):
--auth-choice minimax-global-oauth - MiniMax OAuth(中国):
--auth-choice minimax-cn-oauth - MiniMax API key(全球):
--auth-choice minimax-global-api - MiniMax API key(中国):
--auth-choice minimax-cn-api - 认证:
minimax使用MINIMAX_API_KEY;minimax-portal使用MINIMAX_OAUTH_TOKEN或MINIMAX_API_KEY
在 MiniMax 的 Anthropic 兼容流式路径中,OpenClaw 默认会禁用 thinking,除非你显式设置它,并且
/fast on 会将 MiniMax-M2.7 重写为 MiniMax-M2.7-highspeed。- 文本/聊天默认保持在
minimax/MiniMax-M2.7 - 图像生成是
minimax/image-01或minimax-portal/image-01 - 图像理解在两个 MiniMax 认证路径上都由插件拥有的
MiniMax-VL-01提供 - 网络搜索保持在提供商 ID
minimax
LM Studio
LM Studio 作为一个内置提供商插件发布,使用原生 API:- 提供商:
lmstudio - 认证:
LM_API_TOKEN - 默认推理基础 URL:
http://localhost:1234/v1
http://localhost:1234/api/v1/models 返回的某个 ID):
/api/v1/models 和 /api/v1/models/load 进行发现 + 自动加载,并默认使用 /v1/chat/completions 进行推理。如果你希望由 LM Studio 自己管理模型生命周期(JIT 加载、TTL 和自动逐出),请将 models.providers.lmstudio.params.preload: false。有关设置和故障排除,请参见 /providers/lmstudio。
Ollama
Ollama 作为一个内置提供商插件发布,并使用 Ollama 的原生 API:- 提供商:
ollama - 认证:不需要(本地服务器)
- 示例模型:
ollama/llama3.3 - 安装:https://ollama.com/download
OLLAMA_API_KEY 选择启用时,Ollama 会在本地 http://127.0.0.1:11434 被检测到,内置提供商插件会将 Ollama 直接加入 openclaw onboard 和模型选择器。请参见 /providers/ollama 获取 onboarding、云端/本地模式和自定义配置说明。
vLLM
vLLM 作为一个内置提供商插件发布,用于本地/自托管的 OpenAI 兼容服务器:- 提供商:
vllm - 认证:可选(取决于你的服务器)
- 默认基础 URL:
http://127.0.0.1:8000/v1
/v1/models 返回的某个 ID):
SGLang
SGLang 作为一个内置提供商插件发布,用于快速的自托管 OpenAI 兼容服务器:- 提供商:
sglang - 认证:可选(取决于你的服务器)
- 默认基础 URL:
http://127.0.0.1:30000/v1
/v1/models 返回的某个 ID):
本地代理(LM Studio、vLLM、LiteLLM 等)
示例(OpenAI 兼容):默认可选字段
默认可选字段
对于自定义提供商,
reasoning、input、cost、contextWindow 和 maxTokens 都是可选的。未指定时,OpenClaw 默认:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
代理路由整形规则
代理路由整形规则
- 对于非原生端点上的
api: "openai-completions"(任何主机不是api.openai.com的非空baseUrl),OpenClaw 会强制设置compat.supportsDeveloperRole: false,以避免因不支持的developer角色而导致提供商 400 错误。 - 代理式 OpenAI 兼容路由也会跳过原生的 OpenAI 专属请求整形:不使用
service_tier、不使用 Responsesstore、不使用 Completionsstore、不使用提示缓存提示、不使用 OpenAI reasoning 兼容载荷整形,也不添加隐藏的 OpenClaw 归属头。 - 对于需要厂商特定字段的 OpenAI 兼容 Completions 代理,请设置
agents.defaults.models["provider/model"].params.extra_body(或extraBody),以便将额外的 JSON 合并到出站请求体中。 - 对于 vLLM 聊天模板控制,请设置
agents.defaults.models["provider/model"].params.chat_template_kwargs。当会话 thinking 级别关闭时,捆绑的 vLLM 插件会自动为vllm/nemotron-3-*发送enable_thinking: false和force_nonempty_content: true。 - 对于较慢的本地模型或远程 LAN/tailnet 主机,请设置
models.providers.<id>.timeoutSeconds。这会扩展提供商模型的 HTTP 请求处理,包括连接、请求头、流式响应体以及总的受保护 fetch 中止时间,而不会增加整个 agent 的运行时超时。 - 模型提供商的 HTTP 调用仅允许 Surge、Clash 和 sing-box fake-IP DNS 在
198.18.0.0/15和fc00::/7中的答案用于已配置提供商的baseUrl主机名。其他私有地址、回环地址、链路本地地址和元数据目标仍然需要显式启用models.providers.<id>.request.allowPrivateNetwork: true。 - 如果
baseUrl为空/省略,OpenClaw 会保持默认的 OpenAI 行为(解析为api.openai.com)。 - 出于安全考虑,在非原生的
openai-completions端点上,显式的compat.supportsDeveloperRole: true仍会被覆盖。 - 对于非直接端点上的
api: "anthropic-messages"(除规范的anthropic之外的任何提供商,或主机不是公开api.anthropic.com端点的自定义models.providers.anthropic.baseUrl),OpenClaw 会抑制隐式的 Anthropic beta 头,例如claude-code-20250219、interleaved-thinking-2025-05-14和 OAuth 标记,以免自定义的 Anthropic 兼容代理拒绝不支持的 beta 标志。如果你的代理需要特定的 beta 功能,请显式设置models.providers.<id>.headers["anthropic-beta"]。