Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
音频 / 语音笔记 (2026-01-17)
支持的功能
- 媒体理解(音频):如果启用了音频理解(或自动检测到),OpenClaw 会:
- 定位第一条音频附件(本地路径或 URL),并在需要时下载它。
- 在发送到每个模型条目之前强制执行
maxBytes。 - 按顺序运行第一个符合条件的模型条目(提供方或 CLI)。
- 如果失败或跳过(大小/超时),则尝试下一个条目。
- 成功后,它会将
Body替换为[Audio]块,并设置{{Transcript}}。
- 命令解析:当转写成功时,
CommandBody/RawBody会被设置为转写文本,这样斜杠命令仍然可以工作。 - 详细日志:在
--verbose下,我们会记录转写何时运行,以及何时替换正文。
自动检测(默认)
如果你没有配置模型,并且tools.media.audio.enabled 未设置为 false,
OpenClaw 会按以下顺序自动检测,并在第一个可用选项处停止:
- 当前活动回复模型,当其提供方支持音频理解时。
- 本地 CLI(如果已安装)
sherpa-onnx-offline(需要SHERPA_ONNX_MODEL_DIR,其中包含 encoder/decoder/joiner/tokens)whisper-cli(来自whisper-cpp;使用WHISPER_CPP_MODEL或内置的 tiny 模型)whisper(Python CLI;会自动下载模型)
- Gemini CLI (
gemini),使用read_many_files - 提供方认证
- 先尝试已配置且支持音频的
models.providers.*条目 - 内置备用顺序:OpenAI → Groq → xAI → Deepgram → Google → SenseAudio → ElevenLabs → Mistral
- 先尝试已配置且支持音频的
tools.media.audio.enabled: false。
要自定义,请设置 tools.media.audio.models。
注意:二进制文件检测在 macOS/Linux/Windows 上是尽力而为;请确保 CLI 在 PATH 中(我们会展开 ~),或者使用完整命令路径显式设置一个 CLI 模型。
配置示例
提供方 + CLI 兜底(OpenAI + Whisper CLI)
仅提供方,并带范围控制
仅提供方(Deepgram)
仅提供方(Mistral Voxtral)
仅提供方(SenseAudio)
将转写结果回显到聊天(可选启用)
说明与限制
- 提供方认证遵循标准模型认证顺序(认证配置文件、环境变量、
models.providers.*.apiKey)。 - Groq 设置细节: Groq。
- 使用
provider: "deepgram"时,Deepgram 会读取DEEPGRAM_API_KEY。 - Deepgram 设置细节: Deepgram(音频转写)。
- Mistral 设置细节: Mistral。
- 使用
provider: "senseaudio"时,SenseAudio 会读取SENSEAUDIO_API_KEY。 - SenseAudio 设置细节: SenseAudio。
- 音频提供方可通过
tools.media.audio覆盖baseUrl、headers和providerOptions。 - 默认大小上限为 20MB(
tools.media.audio.maxBytes)。超大音频会在该模型处被跳过,并尝试下一个条目。 - 低于 1024 字节的微小/空音频文件会在提供方/CLI 转写之前被跳过。
- 音频的默认
maxChars为未设置(完整转写)。设置tools.media.audio.maxChars或每个条目的maxChars可截断输出。 - OpenAI 自动默认模型为
gpt-4o-mini-transcribe;如需更高准确率,请设置model: "gpt-4o-transcribe"。 - 使用
tools.media.audio.attachments处理多个语音笔记(mode: "all"+maxAttachments)。 - 转写文本可在模板中通过
{{Transcript}}获取。 tools.media.audio.echoTranscript默认关闭;启用后会在代理处理之前将转写确认回传到发起聊天。tools.media.audio.echoFormat可自定义回显文本(占位符:{transcript})。- CLI stdout 有上限(5MB);请保持 CLI 输出简洁。
- CLI
args应使用{{MediaPath}}指向本地音频文件路径。运行openclaw doctor --fix可迁移旧版audio.transcription.command配置中的已弃用{input}占位符。
代理环境支持
基于提供方的音频转写支持标准的出站代理环境变量:HTTPS_PROXYHTTP_PROXYALL_PROXYhttps_proxyhttp_proxyall_proxy
群组中的提及检测
当群聊设置了requireMention: true 时,OpenClaw 现在会在检查提及之前先转写音频。这使得语音笔记即使包含提及也能被处理。
工作方式:
- 如果语音消息没有文本正文,并且群组要求提及,OpenClaw 会执行一次“预检”转写。
- 系统会检查转写文本中的提及模式(例如
@BotName、表情触发器)。 - 如果找到了提及,消息会进入完整的回复流程。
- 由于使用了转写文本进行提及检测,语音笔记可以通过提及门控。
- 如果在预检期间转写失败(超时、API 错误等),消息将基于仅文本提及检测进行处理。
- 这可确保混合消息(文本 + 音频)不会被错误丢弃。
- 为该群组设置
channels.telegram.groups.<chatId>.disableAudioPreflight: true,可跳过预检转写提及检查。 - 设置
channels.telegram.groups.<chatId>.topics.<threadId>.disableAudioPreflight可按话题覆盖(true表示跳过,false表示强制启用)。 - 默认值为
false(当满足提及门控条件时启用预检)。
requireMention: true 的 Telegram 群组中发送了一条语音笔记,内容为“Hey @Claude, what’s the weather?”。语音笔记会被转写,系统检测到提及,然后代理进行回复。
注意事项
- 范围规则采用“先匹配先获胜”。
chatType会被规范化为direct、group或room。 - 确保你的 CLI 以 0 退出并输出纯文本;JSON 需要通过
jq -r .text进行处理。 - 对于
parakeet-mlx,如果你传递--output-dir,当--output-format为txt(或省略)时,OpenClaw 会读取<output-dir>/<media-basename>.txt;非txt的输出格式会回退到 stdout 解析。 - 保持超时时间合理(
timeoutSeconds,默认 60 秒),以免阻塞回复队列。 - 预检转写只会处理第一条音频附件以用于提及检测。其他音频会在主要媒体理解阶段处理。