Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

LLM/模型提供商(不是 WhatsApp/Telegram 之类的聊天渠道)的参考文档。关于模型选择规则,请参见 Models

快速规则

  • 模型引用使用 provider/model(示例:opencode/claude-opus-4-6)。
  • agents.defaults.models 在设置后会作为允许列表。
  • CLI 辅助工具:openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • models.providers.*.contextWindow / contextTokens / maxTokens 设置提供商级默认值;models.providers.*.models[].contextWindow / contextTokens / maxTokens 按模型覆盖这些默认值。
  • 回退规则、冷却探测和会话覆盖持久化: Model failover
openclaw configure 在你添加或重新认证提供商时会保留现有的 agents.defaults.model.primary。提供商插件仍可能在其认证配置补丁中返回推荐的默认模型,但当主模型已经存在时,configure 会把这理解为“使该模型可用”,而不是“替换当前主模型”。若要有意切换默认模型,请使用 openclaw models set <provider/model>openclaw models auth login --provider <id> --set-default
OpenAI 系列路由以缀前区分:
  • openai/<model> 再加上 agents.defaults.agentRuntime.id: "codex" 时,使用原生 Codex app-server harness。这通常是 ChatGPT/Codex 订阅方案。
  • openai-codex/<model> 使用 PI 中的 Codex OAuth。
  • 不带 Codex 运行时覆盖的 openai/<model> 使用 PI 中直接的 OpenAI API key 提供商。
参见 OpenAICodex harness。如果提供商/运行时分离让你感到困惑,请先阅读 Agent runtimes插件自动启用也遵循同样的边界:openai-codex/<model> 属于 OpenAI 插件,而 Codex 插件则由 agentRuntime.id: "codex" 或旧式 codex/<model> 引用启用。agentRuntime.id: "codex" 已设置时,GPT-5.5 可通过原生 Codex app-server harness 使用;在 PI 中可通过 openai-codex/gpt-5.5 进行 Codex OAuth;当你的账户暴露了它时,还可通过 PI 中的 openai/gpt-5.5 直接使用 API key 流量。
CLI 运行时使用相同的分离方式:先选择规范模型引用,如 anthropic/claude-*google/gemini-*openai/gpt-*,然后在想使用本地 CLI 后端时,将 agents.defaults.agentRuntime.id 设置为 claude-cligoogle-gemini-clicodex-cli旧式 claude-cli/*google-gemini-cli/*codex-cli/* 引用会迁移回规范提供商引用,并将运行时单独记录。

插件拥有的提供商行为

大多数特定提供商逻辑都位于提供商插件(registerProvider(...))中,而 OpenClaw 保留通用推理循环。插件负责上手引导、模型目录、认证环境变量映射、传输/配置规范化、工具 schema 清理、失败切换分类、OAuth 刷新、用量上报、思考/推理配置文件等。 完整的提供商 SDK 钩子与捆绑插件示例列表见 Provider plugins。需要完全自定义请求执行器的提供商,则属于更深层的扩展面。
提供商拥有的运行器行为位于显式提供商钩子上,例如重放策略、工具 schema 规范化、流包装,以及传输/请求辅助工具。旧的 ProviderPlugin.capabilities 静态集合仅用于兼容,不再被共享运行器逻辑读取。

API key 轮换

通过以下方式配置多个密钥:
  • OPENCLAW_LIVE_<PROVIDER>_KEY(单个实时覆盖,优先级最高)
  • <PROVIDER>_API_KEYS(逗号或分号分隔列表)
  • <PROVIDER>_API_KEY(主密钥)
  • <PROVIDER>_API_KEY_*(编号列表,例如 <PROVIDER>_API_KEY_1
对于 Google 提供商,也会将 GOOGLE_API_KEY 作为回退项。密钥选择顺序会保留优先级并去重。
  • 只有在速率限制响应时才会使用下一个密钥重试请求(例如 429rate_limitquotaresource exhaustedToo many concurrent requestsThrottlingExceptionconcurrency limit reachedworkers_ai ... quota limit exceeded,或周期性的用量限制消息)。
  • 非速率限制失败会立即失败;不会尝试密钥轮换。
  • 当所有候选密钥都失败时,返回最后一次尝试的最终错误。

内置提供商(pi-ai 目录)

OpenClaw 自带 pi‑ai 目录。这些提供商不需要 models.providers 配置;只需设置认证并选择一个模型即可。

OpenAI

  • 提供商:openai
  • 认证:OPENAI_API_KEY
  • 可选轮换:OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2,以及 OPENCLAW_LIVE_OPENAI_KEY(单个覆盖)
  • 示例模型:openai/gpt-5.5openai/gpt-5.4-mini
  • 如果某个具体安装或 API key 行为不同,可用 openclaw models list --provider openai 验证账号/模型可用性。
  • CLI:openclaw onboard --auth-choice openai-api-key
  • 默认传输方式为 auto(优先 WebSocket,失败后回退到 SSE)
  • 可通过 agents.defaults.models["openai/<model>"].params.transport 按模型覆盖("sse""websocket""auto"
  • OpenAI Responses WebSocket 预热默认启用,通过 params.openaiWsWarmuptrue/false)控制
  • OpenAI 优先级处理可通过 agents.defaults.models["openai/<model>"].params.serviceTier 启用
  • /fastparams.fastMode 会将直接的 openai/* Responses 请求映射为 api.openai.com 上的 service_tier=priority
  • 当你想使用显式层级而不是共享 /fast 开关时,请使用 params.serviceTier
  • 隐藏的 OpenClaw 归因请求头(originatorversionUser-Agent)只会应用于发往 api.openai.com 的原生 OpenAI 流量,不会用于通用的 OpenAI 兼容代理
  • 原生 OpenAI 路由还会保留 Responses store、提示缓存提示,以及 OpenAI reasoning-compat payload 形状;代理路由不会保留这些
  • openai/gpt-5.3-codex-spark 在 OpenClaw 中被有意屏蔽,因为实时 OpenAI API 请求会拒绝它,而当前 Codex 目录也未公开该模型
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • 提供商:anthropic
  • 认证:ANTHROPIC_API_KEY
  • 可选轮换:ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2,以及 OPENCLAW_LIVE_ANTHROPIC_KEY(单个覆盖)
  • 示例模型:anthropic/claude-opus-4-6
  • CLI:openclaw onboard --auth-choice apiKey
  • 直接的公共 Anthropic 请求支持共享的 /fast 开关和 params.fastMode,包括发送到 api.anthropic.com 的 API key 和 OAuth 认证流量;OpenClaw 会将其映射为 Anthropic service_tierauto vs standard_only
  • 首选的 Claude CLI 配置会保持模型引用为规范形式,并单独选择 CLI 后端:anthropic/claude-opus-4-7 搭配 agents.defaults.agentRuntime.id: "claude-cli"。旧式 claude-cli/claude-opus-4-7 引用仍可用于兼容。
Anthropic 告诉我们,OpenClaw 风格的 Claude CLI 用法已再次被允许,因此 OpenClaw 将 Claude CLI 复用和 claude -p 用法视为该集成的授权方式,除非 Anthropic 发布新的政策。Anthropic setup-token 仍然作为受支持的 OpenClaw token 路径可用,但 OpenClaw 现在在可用时优先使用 Claude CLI 复用和 claude -p
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex OAuth

  • Provider: openai-codex
  • Auth: OAuth (ChatGPT)
  • PI model ref: openai-codex/gpt-5.5
  • Native Codex app-server harness ref: openai/gpt-5.5 with agents.defaults.agentRuntime.id: "codex"
  • Native Codex app-server harness docs: Codex harness
  • Legacy model refs: codex/gpt-*
  • Plugin boundary: openai-codex/* loads the OpenAI plugin; the native Codex app-server plugin is selected only by the Codex harness runtime or legacy codex/* refs.
  • CLI: openclaw onboard --auth-choice openai-codex or openclaw models auth login --provider openai-codex
  • Default transport is auto (WebSocket-first, SSE fallback)
  • Override per PI model via agents.defaults.models["openai-codex/<model>"].params.transport ("sse", "websocket", or "auto")
  • params.serviceTier is also forwarded on native Codex Responses requests (chatgpt.com/backend-api)
  • Hidden OpenClaw attribution headers (originator, version, User-Agent) are only attached on native Codex traffic to chatgpt.com/backend-api, not generic OpenAI-compatible proxies
  • Shares the same /fast toggle and params.fastMode config as direct openai/*; OpenClaw maps that to service_tier=priority
  • openai-codex/gpt-5.5 uses the Codex catalog native contextWindow = 400000 and default runtime contextTokens = 272000; override the runtime cap with models.providers.openai-codex.models[].contextTokens
  • Policy note: OpenAI Codex OAuth is explicitly supported for external tools/workflows like OpenClaw.
  • For the common subscription plus native Codex runtime route, sign in with openai-codex auth but configure openai/gpt-5.5 plus agents.defaults.agentRuntime.id: "codex".
  • Use openai-codex/gpt-5.5 only when you want the Codex OAuth/subscription route through PI; use openai/gpt-5.5 without the Codex runtime override when your API-key setup and local catalog expose the public API route.
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

其他订阅式托管选项

GLM 模型

Z.AI Coding Plan 或通用 API 端点。

MiniMax

MiniMax Coding Plan OAuth 或 API key 访问。

Qwen Cloud

Qwen Cloud 提供商表面,以及阿里巴巴 DashScope 和 Coding Plan 端点映射。

OpenCode

  • 认证:OPENCODE_API_KEY(或 OPENCODE_ZEN_API_KEY
  • Zen 运行时提供商:opencode
  • Go 运行时提供商:opencode-go
  • 示例模型:opencode/claude-opus-4-6opencode-go/kimi-k2.6
  • CLI:openclaw onboard --auth-choice opencode-zenopenclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(API key)

  • 提供商:google
  • 认证:GEMINI_API_KEY
  • 可选轮换:GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEY 回退,以及 OPENCLAW_LIVE_GEMINI_KEY(单个覆盖)
  • 示例模型:google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 兼容性:使用 google/gemini-3.1-flash-preview 的旧式 OpenClaw 配置会被规范化为 google/gemini-3-flash-preview
  • 别名:google/gemini-3.1-pro 会被接受并规范化为 Google 实际 Gemini API id google/gemini-3.1-pro-preview
  • CLI:openclaw onboard --auth-choice gemini-api-key
  • 思考:/think adaptive 使用 Google 动态思考。Gemini 3/3.1 省略固定的 thinkingLevel;Gemini 2.5 发送 thinkingBudget: -1
  • 直接的 Gemini 运行也接受 agents.defaults.models["google/<model>"].params.cachedContent(或旧式 cached_content),以转发提供商原生的 cachedContents/... 句柄;Gemini 缓存命中会作为 OpenClaw cacheRead 暴露

Google Vertex 和 Gemini CLI

  • 提供商:google-vertexgoogle-gemini-cli
  • 认证:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程
OpenClaw 中的 Gemini CLI OAuth 是一个非官方集成。有些用户在使用第三方客户端后报告过 Google 账号限制。若你选择继续,请先查看 Google 条款,并使用非关键账号。
Gemini CLI OAuth 作为捆绑的 google 插件的一部分一起发布。
1

安装 Gemini CLI

brew install gemini-cli
2

启用插件

openclaw plugins enable google
3

登录

openclaw models auth login --provider google-gemini-cli --set-default
默认模型:google-gemini-cli/gemini-3-flash-preview。你不需要把 client id 或 secret 粘贴到 openclaw.json 中。CLI 登录流程会将 token 存储在 gateway 主机上的 auth 配置文件里。
4

设置项目(如有需要)

如果登录后请求失败,请在 gateway 主机上设置 GOOGLE_CLOUD_PROJECTGOOGLE_CLOUD_PROJECT_ID
Gemini CLI 的 JSON 回复会从 response 中解析;用量会回退到 stats,其中 stats.cached 会被规范化为 OpenClaw cacheRead

Z.AI(GLM)

  • 提供商:zai
  • 认证:ZAI_API_KEY
  • 示例模型:zai/glm-5.1
  • CLI:openclaw onboard --auth-choice zai-api-key
    • 别名:z.ai/*z-ai/* 会规范化为 zai/*
    • zai-api-key 会自动检测匹配的 Z.AI 端点;zai-coding-globalzai-coding-cnzai-globalzai-cn 会强制使用特定入口

Vercel AI Gateway

  • 提供商:vercel-ai-gateway
  • 认证:AI_GATEWAY_API_KEY
  • 示例模型:vercel-ai-gateway/anthropic/claude-opus-4.6vercel-ai-gateway/moonshotai/kimi-k2.6
  • CLI:openclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • 提供商:kilocode
  • 认证:KILOCODE_API_KEY
  • 示例模型:kilocode/kilo/auto
  • CLI:openclaw onboard --auth-choice kilocode-api-key
  • 基础 URL:https://api.kilo.ai/api/gateway/
  • 静态回退目录会随附 kilocode/kilo/auto;实时 https://api.kilo.ai/api/gateway/models 发现可以进一步扩展运行时目录。
  • kilocode/kilo/auto 背后的精确上游路由由 Kilo Gateway 负责,而不是在 OpenClaw 中硬编码。
参见 /providers/kilocode 获取设置详情。

其他捆绑的提供商插件

ProviderIdAuth envExample model
BytePlusbyteplus / byteplus-planBYTEPLUS_API_KEYbyteplus-plan/ark-code-latest
CerebrascerebrasCEREBRAS_API_KEYcerebras/zai-glm-4.7
Cloudflare AI Gatewaycloudflare-ai-gatewayCLOUDFLARE_AI_GATEWAY_API_KEY
DeepInfradeepinfraDEEPINFRA_API_KEYdeepinfra/deepseek-ai/DeepSeek-V3.2
DeepSeekdeepseekDEEPSEEK_API_KEYdeepseek/deepseek-v4-flash
GitHub Copilotgithub-copilotCOPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN
GroqgroqGROQ_API_KEY
Hugging Face InferencehuggingfaceHUGGINGFACE_HUB_TOKEN or HF_TOKENhuggingface/deepseek-ai/DeepSeek-R1
Kilo GatewaykilocodeKILOCODE_API_KEYkilocode/kilo/auto
Kimi CodingkimiKIMI_API_KEY or KIMICODE_API_KEYkimi/kimi-code
MiniMaxminimax / minimax-portalMINIMAX_API_KEY / MINIMAX_OAUTH_TOKENminimax/MiniMax-M2.7
MistralmistralMISTRAL_API_KEYmistral/mistral-large-latest
MoonshotmoonshotMOONSHOT_API_KEYmoonshot/kimi-k2.6
NVIDIAnvidiaNVIDIA_API_KEYnvidia/nvidia/nemotron-3-super-120b-a12b
OpenRouteropenrouterOPENROUTER_API_KEYopenrouter/auto
QianfanqianfanQIANFAN_API_KEYqianfan/deepseek-v3.2
Qwen CloudqwenQWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEYqwen/qwen3.5-plus
StepFunstepfun / stepfun-planSTEPFUN_API_KEYstepfun/step-3.5-flash
TogethertogetherTOGETHER_API_KEYtogether/moonshotai/Kimi-K2.5
VeniceveniceVENICE_API_KEY
Vercel AI Gatewayvercel-ai-gatewayAI_GATEWAY_API_KEYvercel-ai-gateway/anthropic/claude-opus-4.6
Volcano Engine (Doubao)volcengine / volcengine-planVOLCANO_ENGINE_API_KEYvolcengine-plan/ark-code-latest
xAIxaiXAI_API_KEYxai/grok-4.3
XiaomixiaomiXIAOMI_API_KEYxiaomi/mimo-v2-flash

值得注意的特殊行为

仅在经过验证的 openrouter.ai 路由上应用其应用归因请求头和 Anthropic cache_control 标记。DeepSeek、Moonshot 和 ZAI 引用可用于 OpenRouter 托管的提示缓存 TTL,但不会接收 Anthropic 缓存标记。作为类代理的 OpenAI 兼容路径,它会跳过仅限原生 OpenAI 的形状处理(serviceTier、Responses store、提示缓存提示、OpenAI reasoning-compat)。基于 Gemini 的引用只保留代理-Gemini 思维签名清理。
基于 Gemini 的引用遵循相同的代理-Gemini 清理路径;kilocode/kilo/auto 和其他不支持代理推理的引用会跳过代理推理注入。
API key 上手会写入显式的仅文本 M2.7 聊天模型定义;图像理解仍保留在插件拥有的 MiniMax-VL-01 媒体提供商上。
模型 id 使用 nvidia/<vendor>/<model> 命名空间(例如 nvidia/nvidia/nemotron-...,以及 nvidia/moonshotai/kimi-k2.5);选择器会保留字面上的 <provider>/<model-id> 组合,而发送到 API 的规范键仍保持单前缀。
使用 xAI Responses 路径。grok-4.3 是捆绑的默认聊天模型。/fastparams.fastMode: true 会将 grok-3grok-3-minigrok-4grok-4-0709 重写为其 *-fast 变体。tool_stream 默认开启;可通过 agents.defaults.models["xai/<model>"].params.tool_stream=false 关闭。
作为捆绑的 cerebras 提供商插件提供。GLM 使用 zai-glm-4.7;OpenAI 兼容的基础 URL 为 https://api.cerebras.ai/v1

通过 models.providers 提供(自定义/基础 URL)

使用 models.providers(或 models.json)来添加自定义提供商,或 OpenAI/Anthropic 兼容的代理。 下面许多内置的提供商插件已经发布了默认目录。只有在你想覆盖默认基础 URL、请求头或模型列表时,才使用显式的 models.providers.<id> 条目。 网关模型能力检查也会读取显式的 models.providers.<id>.models[] 元数据。如果自定义或代理模型支持图像,请在该模型上设置 input: ["text", "image"],这样 WebChat 和 node-origin 附件路径会将图像作为原生模型输入传递,而不是仅文本的媒体引用。

Moonshot AI(Kimi)

Moonshot 作为一个内置提供商插件发布。默认使用内置提供商,仅当你需要覆盖基础 URL 或模型元数据时,才添加显式的 models.providers.moonshot 条目:
  • 提供商:moonshot
  • 认证:MOONSHOT_API_KEY
  • 示例模型:moonshot/kimi-k2.6
  • CLI:openclaw onboard --auth-choice moonshot-api-keyopenclaw onboard --auth-choice moonshot-api-key-cn
Kimi K2 模型 ID:
  • moonshot/kimi-k2.6
  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo
  • moonshot/kimi-k2-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.6" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
      },
    },
  },
}

Kimi 编程

Kimi Coding 使用 Moonshot AI 的 Anthropic 兼容端点:
  • 提供商:kimi
  • 认证:KIMI_API_KEY
  • 示例模型:kimi/kimi-code
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi/kimi-code" } },
  },
}
旧的 kimi/k2p5 仍然作为兼容性模型 ID 被接受。

火山引擎(豆包)

火山引擎提供对中国境内的豆包及其他模型的访问。
  • 提供商:volcengine(coding:volcengine-plan
  • 认证:VOLCANO_ENGINE_API_KEY
  • 示例模型:volcengine-plan/ark-code-latest
  • CLI:openclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
  },
}
注册时默认使用 coding 界面,但通用的 volcengine/* 目录会同时注册。 在 onboarding/configure 模型选择器中,Volcengine 认证选项会优先显示 volcengine/*volcengine-plan/* 两类条目。如果这些模型尚未加载,OpenClaw 会回退到未过滤的目录,而不是显示一个空的按提供商分组选择器。
  • volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127(Kimi K2.5)
  • volcengine/glm-4-7-251222(GLM 4.7)
  • volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)

BytePlus(国际版)

BytePlus ARK 为国际用户提供与火山引擎相同的模型访问能力。
  • 提供商:byteplus(coding:byteplus-plan
  • 认证:BYTEPLUS_API_KEY
  • 示例模型:byteplus-plan/ark-code-latest
  • CLI:openclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
  },
}
注册时默认使用 coding 界面,但通用的 byteplus/* 目录会同时注册。 在 onboarding/configure 模型选择器中,BytePlus 认证选项会优先显示 byteplus/*byteplus-plan/* 两类条目。如果这些模型尚未加载,OpenClaw 会回退到未过滤的目录,而不是显示一个空的按提供商分组选择器。
  • byteplus/seed-1-8-251228(Seed 1.8)
  • byteplus/kimi-k2-5-260127(Kimi K2.5)
  • byteplus/glm-4-7-251222(GLM 4.7)

Synthetic

Synthetic 通过 synthetic 提供商提供 Anthropic 兼容模型:
  • 提供商:synthetic
  • 认证:SYNTHETIC_API_KEY
  • 示例模型:synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLI:openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMax 通过 models.providers 配置,因为它使用自定义端点:
  • MiniMax OAuth(全球):--auth-choice minimax-global-oauth
  • MiniMax OAuth(中国):--auth-choice minimax-cn-oauth
  • MiniMax API key(全球):--auth-choice minimax-global-api
  • MiniMax API key(中国):--auth-choice minimax-cn-api
  • 认证:minimax 使用 MINIMAX_API_KEYminimax-portal 使用 MINIMAX_OAUTH_TOKENMINIMAX_API_KEY
请参见 /providers/minimax 获取设置详情、模型选项和配置片段。
在 MiniMax 的 Anthropic 兼容流式路径中,OpenClaw 默认会禁用 thinking,除非你显式设置它,并且 /fast on 会将 MiniMax-M2.7 重写为 MiniMax-M2.7-highspeed
插件拥有的能力划分:
  • 文本/聊天默认保持在 minimax/MiniMax-M2.7
  • 图像生成是 minimax/image-01minimax-portal/image-01
  • 图像理解在两个 MiniMax 认证路径上都由插件拥有的 MiniMax-VL-01 提供
  • 网络搜索保持在提供商 ID minimax

LM Studio

LM Studio 作为一个内置提供商插件发布,使用原生 API:
  • 提供商:lmstudio
  • 认证:LM_API_TOKEN
  • 默认推理基础 URL:http://localhost:1234/v1
然后设置一个模型(替换为 http://localhost:1234/api/v1/models 返回的某个 ID):
{
  agents: {
    defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
  },
}
OpenClaw 使用 LM Studio 的原生 /api/v1/models/api/v1/models/load 进行发现 + 自动加载,并默认使用 /v1/chat/completions 进行推理。如果你希望由 LM Studio 自己管理模型生命周期(JIT 加载、TTL 和自动逐出),请将 models.providers.lmstudio.params.preload: false。有关设置和故障排除,请参见 /providers/lmstudio

Ollama

Ollama 作为一个内置提供商插件发布,并使用 Ollama 的原生 API:
# 安装 Ollama,然后拉取一个模型:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}
当你通过 OLLAMA_API_KEY 选择启用时,Ollama 会在本地 http://127.0.0.1:11434 被检测到,内置提供商插件会将 Ollama 直接加入 openclaw onboard 和模型选择器。请参见 /providers/ollama 获取 onboarding、云端/本地模式和自定义配置说明。

vLLM

vLLM 作为一个内置提供商插件发布,用于本地/自托管的 OpenAI 兼容服务器:
  • 提供商:vllm
  • 认证:可选(取决于你的服务器)
  • 默认基础 URL:http://127.0.0.1:8000/v1
要在本地启用自动发现(如果你的服务器不强制认证,任何值都可以):
export VLLM_API_KEY="vllm-local"
然后设置一个模型(替换为 /v1/models 返回的某个 ID):
{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}
详情请参见 /providers/vllm

SGLang

SGLang 作为一个内置提供商插件发布,用于快速的自托管 OpenAI 兼容服务器:
  • 提供商:sglang
  • 认证:可选(取决于你的服务器)
  • 默认基础 URL:http://127.0.0.1:30000/v1
要在本地启用自动发现(如果你的服务器不强制认证,任何值都可以):
export SGLANG_API_KEY="sglang-local"
然后设置一个模型(替换为 /v1/models 返回的某个 ID):
{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}
详情请参见 /providers/sglang

本地代理(LM Studio、vLLM、LiteLLM 等)

示例(OpenAI 兼容):
{
  agents: {
    defaults: {
      model: { primary: "lmstudio/my-local-model" },
      models: { "lmstudio/my-local-model": { alias: "本地" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        timeoutSeconds: 300,
        models: [
          {
            id: "my-local-model",
            name: "本地模型",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}
对于自定义提供商,reasoninginputcostcontextWindowmaxTokens 都是可选的。未指定时,OpenClaw 默认:
  • reasoning: false
  • input: ["text"]
  • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
  • contextWindow: 200000
  • maxTokens: 8192
建议:设置与你的代理/模型限制相匹配的显式值。
  • 对于非原生端点上的 api: "openai-completions"(任何主机不是 api.openai.com 的非空 baseUrl),OpenClaw 会强制设置 compat.supportsDeveloperRole: false,以避免因不支持的 developer 角色而导致提供商 400 错误。
  • 代理式 OpenAI 兼容路由也会跳过原生的 OpenAI 专属请求整形:不使用 service_tier、不使用 Responses store、不使用 Completions store、不使用提示缓存提示、不使用 OpenAI reasoning 兼容载荷整形,也不添加隐藏的 OpenClaw 归属头。
  • 对于需要厂商特定字段的 OpenAI 兼容 Completions 代理,请设置 agents.defaults.models["provider/model"].params.extra_body(或 extraBody),以便将额外的 JSON 合并到出站请求体中。
  • 对于 vLLM 聊天模板控制,请设置 agents.defaults.models["provider/model"].params.chat_template_kwargs。当会话 thinking 级别关闭时,捆绑的 vLLM 插件会自动为 vllm/nemotron-3-* 发送 enable_thinking: falseforce_nonempty_content: true
  • 对于较慢的本地模型或远程 LAN/tailnet 主机,请设置 models.providers.<id>.timeoutSeconds。这会扩展提供商模型的 HTTP 请求处理,包括连接、请求头、流式响应体以及总的受保护 fetch 中止时间,而不会增加整个 agent 的运行时超时。
  • 模型提供商的 HTTP 调用仅允许 Surge、Clash 和 sing-box fake-IP DNS 在 198.18.0.0/15fc00::/7 中的答案用于已配置提供商的 baseUrl 主机名。其他私有地址、回环地址、链路本地地址和元数据目标仍然需要显式启用 models.providers.<id>.request.allowPrivateNetwork: true
  • 如果 baseUrl 为空/省略,OpenClaw 会保持默认的 OpenAI 行为(解析为 api.openai.com)。
  • 出于安全考虑,在非原生的 openai-completions 端点上,显式的 compat.supportsDeveloperRole: true 仍会被覆盖。
  • 对于非直接端点上的 api: "anthropic-messages"(除规范的 anthropic 之外的任何提供商,或主机不是公开 api.anthropic.com 端点的自定义 models.providers.anthropic.baseUrl),OpenClaw 会抑制隐式的 Anthropic beta 头,例如 claude-code-20250219interleaved-thinking-2025-05-14 和 OAuth 标记,以免自定义的 Anthropic 兼容代理拒绝不支持的 beta 标志。如果你的代理需要特定的 beta 功能,请显式设置 models.providers.<id>.headers["anthropic-beta"]

CLI 示例

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
另请参阅:配置 以查看完整的配置示例。

相关内容