Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

GLM 模型

GLM 是一个通过 Z.AI 平台提供的模型家族(不是一家公司)。在 OpenClaw 中,GLM 模型通过 zai 提供方访问,模型 ID 例如 zai/glm-5

开始使用

1

选择一种认证方式并运行 onboarding

请选择与你的 Z.AI 方案和地区相匹配的 onboarding 选项:
Auth choiceBest for
zai-api-key通用 API key 设置,自动检测端点
zai-coding-globalCoding Plan 用户(全球)
zai-coding-cnCoding Plan 用户(中国区)
zai-global通用 API(全球)
zai-cn通用 API(中国区)
# 示例:通用自动检测
openclaw onboard --auth-choice zai-api-key

# 示例:Coding Plan 全球
openclaw onboard --auth-choice zai-coding-global
2

将 GLM 设置为默认模型

openclaw config set agents.defaults.model.primary "zai/glm-5.1"
3

验证模型是否可用

openclaw models list --provider zai

配置示例

{
  env: { ZAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "zai/glm-5.1" } } },
}
zai-api-key 会让 OpenClaw 根据密钥自动检测匹配的 Z.AI 端点,并 自动应用正确的 base URL。 当你想强制使用特定的 Coding Plan 或通用 API 服务时,请使用明确的地区选项。

内置目录

OpenClaw 当前为打包的 zai 提供方预置了以下 GLM 引用:
ModelModel
glm-5.1glm-4.7
glm-5glm-4.7-flash
glm-5-turboglm-4.7-flashx
glm-5v-turboglm-4.6
glm-4.5glm-4.6v
glm-4.5-air
glm-4.5-flash
glm-4.5v
默认内置的模型引用是 zai/glm-5.1。GLM 的版本和可用性 可能会变化;请查看 Z.AI 的文档获取最新信息。

高级配置

当你使用 zai-api-key 认证选项时,OpenClaw 会检查密钥格式 以确定正确的 Z.AI base URL。明确的地区选项 (zai-coding-globalzai-coding-cnzai-globalzai-cn)会覆盖 自动检测,并直接固定端点。
GLM 模型由 zai 运行时提供方提供服务。有关完整的提供方 配置、地区端点和其他功能,请参阅 Z.AI provider docs

相关内容

Z.AI provider

完整的 Z.AI 提供方配置和地区端点。

模型选择

选择提供方、模型引用以及故障切换行为。