Hugging Face Inference Providers 通过单一路由 API 提供与 OpenAI 兼容的聊天补全。你只需一个 token 即可访问许多模型(DeepSeek、Llama 等)。OpenClaw 使用的是 与 OpenAI 兼容的端点(仅聊天补全);对于文本生成图像、嵌入或语音,请直接使用 HF inference clients。Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKEN或HF_TOKEN(具有 Make calls to Inference Providers 权限的细粒度 token) - API: 与 OpenAI 兼容(
https://router.huggingface.co/v1) - Billing: 单个 HF token;pricing 按提供方费率计费,并提供免费层。
开始使用
创建细粒度 token
前往 Hugging Face Settings Tokens 并创建一个新的细粒度 token。
选择默认模型
在 Default Hugging Face model 下拉菜单中选择你想要的模型。当你拥有有效 token 时,列表会从 Inference API 加载;否则会显示内置列表。你的选择会被保存为默认模型。你也可以稍后在配置中设置或更改默认模型:
非交互式设置
huggingface/deepseek-ai/DeepSeek-R1 设置为默认模型。
模型 ID
模型引用使用huggingface/<org>/<model> 形式(Hub 风格 ID)。下面的列表来自 GET https://router.huggingface.co/v1/models;你的目录中可能包含更多模型。
| 模型 | 引用(前缀加 huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
高级配置
模型发现和引导下拉菜单
模型发现和引导下拉菜单
模型名称、别名和策略后缀
模型名称、别名和策略后缀
- 来自 API 的名称: 当 API 返回
name、title或display_name时,模型显示名会从 GET /v1/models 中加载;否则会根据模型 id 派生(例如deepseek-ai/DeepSeek-R1会变成 “DeepSeek R1”)。 - 覆盖显示名: 你可以在配置中为每个模型设置自定义标签,这样它会以你希望的方式显示在 CLI 和 UI 中:
-
策略后缀: OpenClaw 随附的 Hugging Face 文档和辅助工具当前将这两个后缀视为内置策略变体:
:fastest— 最高吞吐量。:cheapest— 每个输出 token 的最低成本。
models.providers.huggingface.models中,或在model.primary中直接使用后缀。你也可以在 Inference Provider settings 中设置默认 provider 顺序(无后缀 = 使用该顺序)。 -
配置合并:
models.providers.huggingface.models中已有的条目(例如在models.json中)在合并配置时会被保留。因此,你在那里设置的任何自定义name、alias或模型选项都会被保留。
环境和守护进程设置
环境和守护进程设置
如果 Gateway 作为守护进程运行(launchd/systemd),请确保
HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN 对该进程可用(例如,在 ~/.openclaw/.env 中或通过 env.shellEnv)。OpenClaw 同时接受
HUGGINGFACE_HUB_TOKEN 和 HF_TOKEN 作为环境变量别名。任意一个都可以;如果两者都设置了,则以 HUGGINGFACE_HUB_TOKEN 为准。配置:DeepSeek R1 搭配 Qwen 回退
配置:DeepSeek R1 搭配 Qwen 回退
配置:Qwen 的最便宜和最快变体
配置:Qwen 的最便宜和最快变体
配置:DeepSeek + Llama + GPT-OSS,带别名
配置:DeepSeek + Llama + GPT-OSS,带别名
配置:多个 Qwen 和 DeepSeek,带策略后缀
配置:多个 Qwen 和 DeepSeek,带策略后缀
相关内容
模型选择
所有 provider、模型引用和故障切换行为的概览。
模型选择
如何选择和配置模型。
Inference Providers 文档
Hugging Face Inference Providers 的官方文档。
配置
完整配置参考。