Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

Hugging Face Inference Providers 通过单一路由 API 提供与 OpenAI 兼容的聊天补全。你只需一个 token 即可访问许多模型(DeepSeek、Llama 等)。OpenClaw 使用的是 与 OpenAI 兼容的端点(仅聊天补全);对于文本生成图像、嵌入或语音,请直接使用 HF inference clients
  • Provider: huggingface
  • Auth: HUGGINGFACE_HUB_TOKENHF_TOKEN(具有 Make calls to Inference Providers 权限的细粒度 token)
  • API: 与 OpenAI 兼容(https://router.huggingface.co/v1
  • Billing: 单个 HF token;pricing 按提供方费率计费,并提供免费层。

开始使用

1

创建细粒度 token

前往 Hugging Face Settings Tokens 并创建一个新的细粒度 token。
该 token 必须启用 Make calls to Inference Providers 权限,否则 API 请求将被拒绝。
2

运行引导配置

在 provider 下拉菜单中选择 Hugging Face,然后在提示时输入你的 API key:
openclaw onboard --auth-choice huggingface-api-key
3

选择默认模型

Default Hugging Face model 下拉菜单中选择你想要的模型。当你拥有有效 token 时,列表会从 Inference API 加载;否则会显示内置列表。你的选择会被保存为默认模型。你也可以稍后在配置中设置或更改默认模型:
{
  agents: {
    defaults: {
      model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
    },
  },
}
4

验证模型是否可用

openclaw models list --provider huggingface

非交互式设置

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice huggingface-api-key \
  --huggingface-api-key "$HF_TOKEN"
这会将 huggingface/deepseek-ai/DeepSeek-R1 设置为默认模型。

模型 ID

模型引用使用 huggingface/<org>/<model> 形式(Hub 风格 ID)。下面的列表来自 GET https://router.huggingface.co/v1/models;你的目录中可能包含更多模型。
模型引用(前缀加 huggingface/
DeepSeek R1deepseek-ai/DeepSeek-R1
DeepSeek V3.2deepseek-ai/DeepSeek-V3.2
Qwen3 8BQwen/Qwen3-8B
Qwen2.5 7B InstructQwen/Qwen2.5-7B-Instruct
Qwen3 32BQwen/Qwen3-32B
Llama 3.3 70B Instructmeta-llama/Llama-3.3-70B-Instruct
Llama 3.1 8B Instructmeta-llama/Llama-3.1-8B-Instruct
GPT-OSS 120Bopenai/gpt-oss-120b
GLM 4.7zai-org/GLM-4.7
Kimi K2.5moonshotai/Kimi-K2.5
你可以在任意模型 ID 后追加 :fastest:cheapest。请在 Inference Provider settings 中设置你的默认顺序;完整列表请参见 Inference ProvidersGET https://router.huggingface.co/v1/models

高级配置

OpenClaw 通过直接调用 Inference endpoint 来发现模型:
GET https://router.huggingface.co/v1/models
(可选:发送 Authorization: Bearer $HUGGINGFACE_HUB_TOKEN$HF_TOKEN 以获取完整列表;某些端点在没有认证时只返回子集。)响应是 OpenAI 风格的 { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }当你配置 Hugging Face API key 后(通过引导配置、HUGGINGFACE_HUB_TOKENHF_TOKEN),OpenClaw 会使用这个 GET 请求来发现可用的聊天补全模型。在交互式设置期间,在你输入 token 后,你会看到一个 Default Hugging Face model 下拉菜单,其中的选项来自该列表(如果请求失败,则使用内置目录)。在运行时(例如 Gateway 启动时),当存在 key 时,OpenClaw 会再次调用 GET https://router.huggingface.co/v1/models 来刷新目录。该列表会与内置目录合并(用于上下文窗口和成本等元数据)。如果请求失败或未设置 key,则只使用内置目录。
  • 来自 API 的名称: 当 API 返回 nametitledisplay_name 时,模型显示名会从 GET /v1/models 中加载;否则会根据模型 id 派生(例如 deepseek-ai/DeepSeek-R1 会变成 “DeepSeek R1”)。
  • 覆盖显示名: 你可以在配置中为每个模型设置自定义标签,这样它会以你希望的方式显示在 CLI 和 UI 中:
{
  agents: {
    defaults: {
      models: {
        "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
        "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
      },
    },
  },
}
  • 策略后缀: OpenClaw 随附的 Hugging Face 文档和辅助工具当前将这两个后缀视为内置策略变体:
    • :fastest — 最高吞吐量。
    • :cheapest — 每个输出 token 的最低成本。
    你可以将它们作为单独条目添加到 models.providers.huggingface.models 中,或在 model.primary 中直接使用后缀。你也可以在 Inference Provider settings 中设置默认 provider 顺序(无后缀 = 使用该顺序)。
  • 配置合并: models.providers.huggingface.models 中已有的条目(例如在 models.json 中)在合并配置时会被保留。因此,你在那里设置的任何自定义 namealias 或模型选项都会被保留。
如果 Gateway 作为守护进程运行(launchd/systemd),请确保 HUGGINGFACE_HUB_TOKENHF_TOKEN 对该进程可用(例如,在 ~/.openclaw/.env 中或通过 env.shellEnv)。
OpenClaw 同时接受 HUGGINGFACE_HUB_TOKENHF_TOKEN 作为环境变量别名。任意一个都可以;如果两者都设置了,则以 HUGGINGFACE_HUB_TOKEN 为准。
{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/deepseek-ai/DeepSeek-R1",
        fallbacks: ["huggingface/Qwen/Qwen3-8B"],
      },
      models: {
        "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
        "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: { primary: "huggingface/Qwen/Qwen3-8B" },
      models: {
        "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
        "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
        "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
        fallbacks: [
          "huggingface/meta-llama/Llama-3.3-70B-Instruct",
          "huggingface/openai/gpt-oss-120b",
        ],
      },
      models: {
        "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
        "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
        "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
      models: {
        "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
        "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
        "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
        "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
      },
    },
  },
}

相关内容

模型选择

所有 provider、模型引用和故障切换行为的概览。

模型选择

如何选择和配置模型。

Inference Providers 文档

Hugging Face Inference Providers 的官方文档。

配置

完整配置参考。