Skip to main content

Documentation Index

Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt

Use this file to discover all available pages before exploring further.

Arcee AI 通过与 OpenAI 兼容的 API 提供对 Trinity 系列混合专家模型的访问。所有 Trinity 模型均采用 Apache 2.0 许可证。 可以通过 Arcee 平台直接访问 Arcee AI 模型,也可以通过 OpenRouter 访问。
PropertyValue
Providerarcee
AuthARCEEAI_API_KEY(直接)或 OPENROUTER_API_KEY(通过 OpenRouter)
API与 OpenAI 兼容
Base URLhttps://api.arcee.ai/api/v1(直接)或 https://openrouter.ai/api/v1(OpenRouter)

开始使用

1

获取 API 密钥

Arcee AI 创建一个 API 密钥。
2

运行引导

openclaw onboard --auth-choice arceeai-api-key
3

设置默认模型

{
  agents: {
    defaults: {
      model: { primary: "arcee/trinity-large-thinking" },
    },
  },
}

非交互式设置

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice arceeai-api-key \
  --arceeai-api-key "$ARCEEAI_API_KEY"

内置目录

OpenClaw 当前附带以下内置的 Arcee 目录:
Model refNameInputContextCost (in/out per 1M)Notes
arcee/trinity-large-thinkingTrinity Large Thinkingtext256K0.25/0.25 / 0.90默认模型;已启用推理
arcee/trinity-large-previewTrinity Large Previewtext128K0.25/0.25 / 1.00通用用途;400B 参数,13B 激活
arcee/trinity-miniTrinity Mini 26Btext128K0.045/0.045 / 0.15快速且成本高效;支持函数调用
引导预设会将 arcee/trinity-large-thinking 设置为默认模型。

支持的功能

FeatureSupported
流式输出
工具使用 / 函数调用
结构化输出(JSON 模式和 JSON schema)
扩展思考是(Trinity Large Thinking)
如果 Gateway 作为守护进程运行(launchd/systemd),请确保 ARCEEAI_API_KEY (或 OPENROUTER_API_KEY)对该进程可用(例如,在 ~/.openclaw/.env 中,或通过 env.shellEnv)。
通过 OpenRouter 使用 Arcee 模型时,同样适用 arcee/* 模型引用。 OpenClaw 会根据你的认证选择透明地处理路由。有关 OpenRouter 特定的 配置细节,请参阅 OpenRouter provider docs

相关内容

OpenRouter

通过一个 API 密钥访问 Arcee 模型以及许多其他模型。

模型选择

选择提供方、模型引用以及故障切换行为。