Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

Groq 提供使用自定义 LPU 硬件的开源模型超高速推理 (Llama、Gemma、Mistral 等)。OpenClaw 通过其兼容 OpenAI 的 API 连接 到 Groq。
PropertyValue
Providergroq
AuthGROQ_API_KEY
APIOpenAI-compatible

开始使用

1

获取 API 密钥

console.groq.com/keys 创建 API 密钥。
2

设置 API 密钥

export GROQ_API_KEY="gsk_..."
3

设置默认模型

{
  agents: {
    defaults: {
      model: { primary: "groq/llama-3.3-70b-versatile" },
    },
  },
}

配置文件示例

{
  env: { GROQ_API_KEY: "gsk_..." },
  agents: {
    defaults: {
      model: { primary: "groq/llama-3.3-70b-versatile" },
    },
  },
}

内置目录

OpenClaw 自带一个基于 manifest 的 Groq 目录,用于快速按提供商筛选模型 列表。运行 openclaw models list --all --provider groq 查看内置 条目,或查看 console.groq.com/docs/models
ModelNotes
Llama 3.3 70B Versatile通用用途,大上下文
Llama 3.1 8B Instant快速、轻量
Gemma 2 9B紧凑、高效
Mixtral 8x7BMoE 架构,推理能力强
使用 openclaw models list --all --provider groq 查看当前 OpenClaw 版本已知的、 基于 manifest 的 Groq 条目。

推理模型

OpenClaw 将其共享的 /think 等级映射到 Groq 特定模型的 reasoning_effort 值。对于 qwen/qwen3-32b,禁用思考会发送 none,启用思考会发送 default。对于 Groq GPT-OSS 推理模型, OpenClaw 会发送 lowmediumhigh;禁用思考时会省略 reasoning_effort,因为这些模型不支持禁用值。

音频转录

Groq 也提供快速的基于 Whisper 的音频转录。作为一个 媒体理解提供商进行配置时,OpenClaw 使用 Groq 的 whisper-large-v3-turbo 模型,通过共享的 tools.media.audio 接口来转录语音消息。
{
  tools: {
    media: {
      audio: {
        models: [{ provider: "groq" }],
      },
    },
  },
}
PropertyValue
Shared config pathtools.media.audio
Default base URLhttps://api.groq.com/openai/v1
Default modelwhisper-large-v3-turbo
API endpointOpenAI-compatible /audio/transcriptions
如果 Gateway 作为守护进程运行(launchd/systemd),请确保 GROQ_API_KEY 对 该进程可用(例如,在 ~/.openclaw/.env 中或通过 env.shellEnv)。
仅在交互式 shell 中设置的密钥对守护进程管理的 gateway 进程不可见。请使用 ~/.openclaw/.envenv.shellEnv 配置以确保持久可用。

相关内容

模型选择

选择提供商、模型引用和故障转移行为。

配置参考

完整配置模式,包括提供商和音频设置。

Groq 控制台

Groq 仪表板、API 文档和定价。

Groq 模型列表

官方 Groq 模型目录。