LM Studio 是一款友好且强大的应用,可在你自己的硬件上运行开源权重模型。它支持运行 llama.cpp(GGUF)或 MLX 模型(Apple Silicon)。既有 GUI 版本,也有无头守护进程(Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
llmster)版本。有关产品和安装文档,请参见 lmstudio.ai。
快速开始
- 安装 LM Studio(桌面版)或
llmster(无头版),然后启动本地服务器:
- 启动服务器
- 如果启用了 LM Studio 身份验证,请设置
LM_API_TOKEN:
- 运行 onboarding 并选择
LM Studio:
- 在 onboarding 中,使用
Default model提示选择你的 LM Studio 模型。
author/model-name 格式(例如 qwen/qwen3.5-9b)。OpenClaw
模型引用会在前面加上提供方名称:lmstudio/qwen/qwen3.5-9b。你可以通过运行 curl http://localhost:1234/api/v1/models 并查看 key 字段来找到
模型的准确键值。
非交互式 onboarding
当你想通过脚本进行设置(CI、预配、远程引导)时,请使用非交互式 onboarding:--custom-model-id 接受 LM Studio 返回的模型键值(例如 qwen/qwen3.5-9b),不包含
lmstudio/ 提供方前缀。
对于已认证的 LM Studio 服务器,请传入 --lmstudio-api-key 或设置 LM_API_TOKEN。
对于未认证的 LM Studio 服务器,请省略该密钥;OpenClaw 会存储一个本地的非机密标记。
--custom-api-key 仍然为兼容性保留支持,但对于 LM Studio,更推荐使用 --lmstudio-api-key。
这会写入 models.providers.lmstudio 并将默认模型设置为
lmstudio/<custom-model-id>。当你提供 API 密钥时,设置还会写入
lmstudio:default 身份验证配置文件。
交互式设置可能会提示你输入一个可选的首选加载上下文长度,并将其应用到它保存到配置中的已发现 LM Studio 模型上。
LM Studio 插件配置会信任已配置的 LM Studio 端点用于模型请求,包括 loopback、LAN 和 tailnet 主机。你可以通过设置 models.providers.lmstudio.request.allowPrivateNetwork: false 来选择退出。
配置
流式使用量兼容性
LM Studio 与流式使用量兼容。当它没有发出 OpenAI 形式的usage 对象时,OpenClaw 会改为从 llama.cpp 风格的
timings.prompt_n / timings.predicted_n 元数据中恢复 token 数量。
以下 OpenAI 兼容的本地后端也适用相同的流式使用量行为:
- vLLM
- SGLang
- llama.cpp
- LocalAI
- Jan
- TabbyAPI
- text-generation-webui
思考兼容性
当 LM Studio 的/api/v1/models 发现结果报告特定于模型的推理
选项时,OpenClaw 会在模型兼容性元数据中暴露匹配的、与 OpenAI 兼容的 reasoning_effort
值。当前 LM Studio 构建版本可能会 الإعلان বাইনারি
UI 选项,例如 allowed_options: ["off", "on"],同时却会在 /v1/chat/completions 上拒绝这些值;在发送请求之前,OpenClaw 会将这种二元发现形状规范化为
none、minimal、low、medium、high 和 xhigh。
当加载目录时,包含 off/on 推理映射的旧版 LM Studio 保存配置也会以相同方式规范化。
显式配置
故障排除
未检测到 LM Studio
确保 LM Studio 正在运行。如果启用了身份验证,也请设置LM_API_TOKEN:
身份验证错误(HTTP 401)
如果设置报告 HTTP 401,请验证你的 API 密钥:- 检查
LM_API_TOKEN是否与 LM Studio 中配置的密钥匹配。 - 有关 LM Studio 身份验证设置的详细信息,请参见 LM Studio Authentication。
- 如果你的服务器不需要身份验证,请在设置过程中将密钥留空。
即时模型加载
LM Studio 支持即时(JIT)模型加载,即模型会在首次请求时加载。默认情况下,OpenClaw 会通过 LM Studio 的原生加载端点预加载模型,这在禁用 JIT 时很有帮助。要让 LM Studio 的 JIT、空闲 TTL 和自动回收行为接管模型生命周期,请禁用 OpenClaw 的预加载步骤:LAN 或 tailnet 上的 LM Studio 主机
使用 LM Studio 主机可访问的地址,保留/v1,并确保该机器上的 LM Studio 绑定到 loopback 之外:
lmstudio 会自动信任其配置的本地/私有端点,用于受保护的模型请求。像 localhost 或 127.0.0.1 这样的自定义 loopback 提供方 ID 也会自动被信任;对于 LAN、tailnet 或私有 DNS 的自定义提供方 ID,请显式设置 models.providers.<id>.request.allowPrivateNetwork: true。