OpenClaw 支持 Mistral 用于文本/图像模型路由(Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
mistral/...)以及
通过媒体理解中的 Voxtral 进行音频转录。
Mistral 也可用于记忆嵌入(memorySearch.provider = "mistral")。
- 提供方:
mistral - 认证:
MISTRAL_API_KEY - API:Mistral Chat Completions(
https://api.mistral.ai/v1)
开始使用
内置 LLM 目录
OpenClaw 当前附带以下 Mistral 目录:| 模型引用 | 输入 | 上下文 | 最大输出 | 备注 |
|---|---|---|---|---|
mistral/mistral-large-latest | text, image | 262,144 | 16,384 | 默认模型 |
mistral/mistral-medium-2508 | text, image | 262,144 | 8,192 | Mistral Medium 3.1 |
mistral/mistral-small-latest | text, image | 128,000 | 16,384 | Mistral Small 4;可通过 API reasoning_effort 调整推理强度 |
mistral/pixtral-large-latest | text, image | 128,000 | 32,768 | Pixtral |
mistral/codestral-latest | text | 256,000 | 4,096 | 编码 |
mistral/devstral-medium-latest | text | 262,144 | 32,768 | Devstral 2 |
mistral/magistral-small | text | 128,000 | 40,000 | 支持推理 |
音频转录(Voxtral)
通过媒体理解流水线使用 Voxtral 进行批量音频转录。Voice Call 流式 STT
内置的mistral 插件会将 Voxtral Realtime 注册为 Voice Call 的
流式 STT 提供方。
| 设置 | 配置路径 | 默认值 |
|---|---|---|
| API key | plugins.entries.voice-call.config.streaming.providers.mistral.apiKey | 回退到 MISTRAL_API_KEY |
| 模型 | ...mistral.model | voxtral-mini-transcribe-realtime-2602 |
| 编码 | ...mistral.encoding | pcm_mulaw |
| 采样率 | ...mistral.sampleRate | 8000 |
| 目标延迟 | ...mistral.targetStreamingDelayMs | 800 |
OpenClaw 将 Mistral 实时 STT 默认设为 8 kHz 的
pcm_mulaw,因此 Voice Call
可以直接转发 Twilio 媒体帧。只有当你的上游流已经是原始 PCM 时,才使用 encoding: "pcm_s16le" 并配合
匹配的 sampleRate。高级配置
可调整推理(mistral-small-latest)
可调整推理(mistral-small-latest)
mistral/mistral-small-latest 映射到 Mistral Small 4,并在 Chat Completions API 上通过 reasoning_effort 支持可调整推理(none 会尽量减少输出中的额外思考;high 会在最终答案前展示完整思考轨迹)。OpenClaw 会将会话的 thinking 级别映射到 Mistral 的 API:| OpenClaw thinking 级别 | Mistral reasoning_effort |
|---|---|
| off / minimal | none |
| low / medium / high / xhigh / adaptive / max | high |
其他内置的 Mistral 目录模型不使用此参数。当你想要 Mistral 原生的“优先推理”行为时,请继续使用
magistral-* 模型。记忆嵌入
记忆嵌入
Mistral 可以通过
/v1/embeddings 提供记忆嵌入(默认模型:mistral-embed)。认证和基础 URL
认证和基础 URL
- Mistral 认证使用
MISTRAL_API_KEY。 - 提供方基础 URL 默认是
https://api.mistral.ai/v1。 - 接入引导的默认模型是
mistral/mistral-large-latest。 - Z.AI 使用带有你的 API 密钥的 Bearer 认证。
相关内容
模型选择
选择提供方、模型引用和故障转移行为。
媒体理解
音频转录设置和提供方选择。