inferrs 可以在一个兼容 OpenAI 的Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
/v1 API 后面提供本地模型服务。OpenClaw 通过通用的
openai-completions 路径与 inferrs 协同工作。
目前最好将 inferrs 视为一个自托管的、兼容 OpenAI 的
后端,而不是一个专门的 OpenClaw 提供方插件。
快速开始
完整配置示例
此示例使用本地inferrs 服务器上的 Gemma 4。
高级配置
为什么 requiresStringContent 很重要
为什么 requiresStringContent 很重要
某些 在发送请求之前,OpenClaw 会将纯文本内容分块展平成普通字符串。
inferrs Chat Completions 路由只接受字符串类型的
messages[].content,而不接受结构化的内容分块数组。Gemma 与工具 schema 的注意事项
Gemma 与工具 schema 的注意事项
某些当前的 这会禁用该模型的 OpenClaw 工具 schema 表面,并且可以减少对更严格的本地后端造成的提示词
压力。如果较小的直接请求仍然可用,但正常的 OpenClaw agent 轮次继续在
inferrs + Gemma 组合可以接受较小的直接
/v1/chat/completions 请求,但在完整的 OpenClaw agent-runtime
轮次中仍然会失败。如果发生这种情况,先尝试以下配置:inferrs 内部崩溃,那么剩余问题通常是上游模型/服务器
行为,而不是 OpenClaw 的传输层。手动冒烟测试
手动冒烟测试
配置完成后,请测试两个层面:如果第一个命令可用但第二个失败,请查看下面的故障排除部分。
代理式行为
代理式行为
inferrs 被视为一种代理式、兼容 OpenAI 的 /v1 后端,而不是一个
原生的 OpenAI 端点。- 这里不适用 OpenAI 原生专用的请求整形
- 没有
service_tier、没有 Responsesstore、没有 prompt-cache 提示,也没有 OpenAI reasoning-compat 负载整形 - 隐藏的 OpenClaw 归属头(
originator、version、User-Agent) 不会注入到自定义inferrsbase URL 中
故障排除
curl /v1/models 失败
curl /v1/models 失败
inferrs 没有运行、无法访问,或者没有绑定到预期的
host/port。请确保服务器已启动并正在监听你配置的地址。messages[].content 预期为字符串
messages[].content 预期为字符串
在模型条目中设置
compat.requiresStringContent: true。有关详细信息,请参见上文
requiresStringContent 部分。直接调用 /v1/chat/completions 成功,但 openclaw infer model run 失败
直接调用 /v1/chat/completions 成功,但 openclaw infer model run 失败
尝试设置
compat.supportsTools: false 以禁用工具 schema 表面。
请参见上面的 Gemma 工具 schema 注意事项。inferrs 在较大的 agent 轮次中仍然崩溃
inferrs 在较大的 agent 轮次中仍然崩溃
如果 OpenClaw 不再出现 schema 错误,但
inferrs 在较大的
agent 轮次中仍然崩溃,则应将其视为上游 inferrs 或模型限制。请降低
提示词压力,或切换到不同的本地后端或模型。相关内容
本地模型
在本地模型服务器上运行 OpenClaw。
网关故障排除
调试那些能够通过探测但在 agent 运行时失败的本地 OpenAI 兼容后端。
模型选择
所有提供方、模型引用和故障转移行为的概览。