Groq 提供使用自定义 LPU 硬件的开源模型超高速推理 (Llama、Gemma、Mistral 等)。OpenClaw 通过其兼容 OpenAI 的 API 连接 到 Groq。Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
| Property | Value |
|---|---|
| Provider | groq |
| Auth | GROQ_API_KEY |
| API | OpenAI-compatible |
开始使用
配置文件示例
内置目录
OpenClaw 自带一个基于 manifest 的 Groq 目录,用于快速按提供商筛选模型 列表。运行openclaw models list --all --provider groq 查看内置
条目,或查看
console.groq.com/docs/models。
| Model | Notes |
|---|---|
| Llama 3.3 70B Versatile | 通用用途,大上下文 |
| Llama 3.1 8B Instant | 快速、轻量 |
| Gemma 2 9B | 紧凑、高效 |
| Mixtral 8x7B | MoE 架构,推理能力强 |
推理模型
OpenClaw 将其共享的/think 等级映射到 Groq 特定模型的
reasoning_effort 值。对于 qwen/qwen3-32b,禁用思考会发送
none,启用思考会发送 default。对于 Groq GPT-OSS 推理模型,
OpenClaw 会发送 low、medium 或 high;禁用思考时会省略
reasoning_effort,因为这些模型不支持禁用值。
音频转录
Groq 也提供快速的基于 Whisper 的音频转录。作为一个 媒体理解提供商进行配置时,OpenClaw 使用 Groq 的whisper-large-v3-turbo
模型,通过共享的 tools.media.audio
接口来转录语音消息。
音频转录详情
音频转录详情
环境说明
环境说明
如果 Gateway 作为守护进程运行(launchd/systemd),请确保
GROQ_API_KEY 对
该进程可用(例如,在 ~/.openclaw/.env 中或通过 env.shellEnv)。相关内容
模型选择
选择提供商、模型引用和故障转移行为。
配置参考
完整配置模式,包括提供商和音频设置。
Groq 控制台
Groq 仪表板、API 文档和定价。
Groq 模型列表
官方 Groq 模型目录。