vLLM
vLLM 可以通过兼容 OpenAI 的 HTTP API 提供开源(以及部分自定义)模型服务。OpenClaw 可以使用openai-completions API 连接到 vLLM。
当你选择使用 VLLM_API_KEY(如果你的服务器不强制认证,任何值都可以)且没有明确定义 models.providers.vllm 条目时,OpenClaw 还能自动发现 vLLM 中可用的模型。
快速开始
- 启动一个兼容 OpenAI 的 vLLM 服务器。
/v1 端点(例如 /v1/models,/v1/chat/completions)。vLLM 通常运行于:
http://127.0.0.1:8000/v1
- 选择启用(如果没有认证,任何值都行):
- 选择一个模型(替换为你的 vLLM 模型 ID):
模型发现(隐式提供者)
当设置了VLLM_API_KEY(或存在认证配置)且没有定义 models.providers.vllm 时,OpenClaw 会请求:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm,则跳过自动发现,必须手动定义模型。
显式配置(手动模型)
显式配置适用于:- vLLM 运行在不同的主机/端口。
- 你想固定
contextWindow/maxTokens参数。 - 服务器需要真实的 API key(或你想控制请求头)。
故障排查
- 检查服务器是否可访问:
- 如果请求因认证失败,设置与你服务器配置匹配的真实
VLLM_API_KEY,或者在models.providers.vllm下显式配置提供者。