DeepSeek 提供强大的 AI 模型,并带有兼容 OpenAI 的 API。Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
| Property | Value |
|---|---|
| Provider | deepseek |
| Auth | DEEPSEEK_API_KEY |
| API | OpenAI-compatible |
| Base URL | https://api.deepseek.com |
开始使用
获取你的 API 密钥
在 platform.deepseek.com 创建一个 API 密钥。
非交互式设置
非交互式设置
对于脚本化或无头安装,请直接传入所有标志:
内置目录
| Model ref | Name | Input | Context | Max output | Notes |
|---|---|---|---|---|---|
deepseek/deepseek-v4-flash | DeepSeek V4 Flash | text | 1,000,000 | 384,000 | 默认模型;支持 V4 thinking 的接口 |
deepseek/deepseek-v4-pro | DeepSeek V4 Pro | text | 1,000,000 | 384,000 | 支持 V4 thinking 的接口 |
deepseek/deepseek-chat | DeepSeek Chat | text | 131,072 | 8,192 | DeepSeek V3.2 非 thinking 接口 |
deepseek/deepseek-reasoner | DeepSeek Reasoner | text | 131,072 | 65,536 | 支持推理的 V3.2 接口 |
Thinking 与工具
DeepSeek V4 thinking 会话的重放契约比大多数兼容 OpenAI 的提供方更严格: 在启用 thinking 的轮次使用工具后,DeepSeek 期望该轮中重放的 assistant 消息在后续请求里包含reasoning_content。OpenClaw 会在 DeepSeek 插件内部处理这一点,因此正常的多轮工具使用在
deepseek/deepseek-v4-flash 和 deepseek/deepseek-v4-pro 上都能正常工作。
如果你将现有会话从另一个兼容 OpenAI 的提供方切换到 DeepSeek V4 模型,
较早的 assistant 工具调用轮次可能没有原生的 DeepSeek reasoning_content。OpenClaw 会在
重放给 DeepSeek V4 thinking 请求的 assistant 消息中补齐该缺失字段,这样提供方就能
接受历史记录而不需要 /new。
当在 OpenClaw 中禁用 thinking 时(包括 UI 中的 None 选项),OpenClaw 会发送
DeepSeek thinking: { type: "disabled" },并从外发历史记录中移除重放的
reasoning_content。这会让禁用 thinking 的会话走 DeepSeek 的非 thinking 路径。
默认快速路径使用 deepseek/deepseek-v4-flash。当你想使用更强的 V4 模型并且可以接受
更高成本或更高延迟时,使用 deepseek/deepseek-v4-pro。
在线测试
直接在线模型套件中包含现代模型集合里的 DeepSeek V4。要仅运行 DeepSeek V4 的直接模型检查:配置示例
相关内容
模型选择
选择提供方、模型引用和故障转移行为。
配置参考
agents、models 和 providers 的完整配置参考。