内置引擎是默认的内存后端。它将你的内存索引存储在每个代理各自的 SQLite 数据库中,且无需额外依赖即可开始使用。Documentation Index
Fetch the complete documentation index at: https://openclaw.zhcndoc.com/llms.txt
Use this file to discover all available pages before exploring further.
它提供什么
- 关键词搜索:通过 FTS5 全文索引(BM25 评分)。
- 向量搜索:通过任意受支持提供商的 embeddings。
- 混合搜索:将两者结合以获得最佳结果。
- CJK 支持:通过三元组分词支持中文、日文和韩文。
- sqlite-vec 加速:用于数据库内向量查询(可选)。
快速开始
如果你有 OpenAI、Gemini、Voyage、Mistral 或 DeepInfra 的 API 密钥,内置引擎会自动检测并启用向量搜索。无需配置。 要显式设置提供商:node-llama-cpp 运行时包,然后将 local.modelPath
指向一个 GGUF 文件:
支持的 embedding 提供商
| 提供商 | ID | 自动检测 | 说明 |
|---|---|---|---|
| OpenAI | openai | 是 | 默认:text-embedding-3-small |
| Gemini | gemini | 是 | 支持多模态(图像 + 音频) |
| Voyage | voyage | 是 | |
| Mistral | mistral | 是 | |
| DeepInfra | deepinfra | 是 | 默认:BAAI/bge-m3 |
| Ollama | ollama | 否 | 本地,需显式设置 |
| Local | local | 是(优先) | 可选的 node-llama-cpp 运行时 |
memorySearch.provider 可覆盖此行为。
索引如何工作
OpenClaw 会将MEMORY.md 和 memory/*.md 索引为若干块(约 400 个 token,重叠 80 个 token),并将它们存储在每个代理各自的 SQLite 数据库中。
- 索引位置:
~/.openclaw/memory/<agentId>.sqlite - 存储维护: SQLite WAL 侧车文件会通过定期检查点和关闭时检查点进行限流。
- 文件监视: 内存文件的更改会触发去抖重新索引(1.5 秒)。
- 自动重新索引: 当 embedding 提供商、模型或分块配置发生变化时,整个索引会自动重建。
- 按需重新索引:
openclaw memory index --force
你也可以使用
memorySearch.extraPaths 索引工作区外的 Markdown 文件。请参阅
配置参考。何时使用
对于大多数用户来说,内置引擎是最佳选择:- 开箱即用,无需额外依赖。
- 对关键词和向量搜索都有良好支持。
- 支持所有 embedding 提供商。
- 混合搜索结合了两种检索方式的优点。
故障排查
内存搜索已禁用? 检查openclaw memory status。如果没有检测到提供商,请显式设置一个,或添加 API 密钥。
本地提供商未检测到? 确认本地路径存在,然后运行:
local 提供商 ID。
如果提供商设置为 auto,则只有当 memorySearch.local.modelPath 指向一个存在的本地文件时,才会优先考虑本地 embeddings。
结果过时? 运行 openclaw memory index --force 进行重建。监视器在极少数边缘情况下可能会漏掉更改。
sqlite-vec 未加载? OpenClaw 会自动回退到进程内余弦相似度。openclaw memory status --deep 会将本地向量存储与 embedding 提供商分开报告,因此 Vector store: unavailable 指向 sqlite-vec 加载问题,而 Embeddings: unavailable 指向提供商/认证或模型就绪问题。请检查日志以获取具体的加载错误。