七、全景竞品分析——五类 × 六维度
⏱ 30 秒速览| AI 记忆赛道 =五个物种:OS 级(Apple/MS)、IDE 级(Cursor/Copilot)、知识库(NotebookLM)、MaaS(Mem0/Zep)、模型原生(ChatGPT/Claude)。10 款产品 × 6 维度对比矩阵的结论:没有全能冠军。ChatGPT 赢体验输透明度,Apple 赢数据广度输开放性,Mem0 赢灵活性输端到端体验。OpenClaw 赢在隐私 + 可控性的组合拳——恰恰是其他方案最常牺牲的两个维度。
前六章都在向内看——OpenClaw 的架构、旅程、哲学、风险和经济性。这一章向外看:AI 记忆赛道上还有谁?各自在做什么?OpenClaw 在整个版图中处于什么位置?
7.1 竞品分类(五类)
AI 记忆产品不是一个同质化的市场,而是五个截然不同的物种在争夺"记住用户"这个高地:
| 分类 | 代表产品 | 特征 |
|---|---|---|
| OS 级 | Apple Intelligence、Microsoft Recall、Google Gemini(设备端) | 系统级硬件集成,覆盖全设备数据。优势是数据广度(能读邮件、日历、照片),劣势是封闭且仅在自家生态内有效 |
| IDE 级 | Cursor Memory、GitHub Copilot Memory | 代码上下文专用,深度集成开发环境。精于编码场景,但无法覆盖编码之外的交互 |
| 知识库工具 | Google NotebookLM、Notion AI | 文档驱动的持久知识库 + 检索增强。优势是结构化知识管理,劣势是不具备对话式自动记忆 |
| MaaS(记忆即服务) | Mem0、Zep、Letta/MemGPT | 提供记忆 API,嵌入任何应用。优势是嵌入灵活性,劣势是需要自己构建完整应用 |
| 模型原生 | ChatGPT Memory、Claude Projects、Gemini Memory | 模型厂商内置,零配置。优势是用户体验最好,劣势是数据存在云端、不可审计 |
这五类不是在同一个赛道上竞速——它们解决的是不同维度的记忆问题。OS 级解决"我能访问哪些数据",模型原生解决"用户体验能多简单",MaaS 解决"开发者能多灵活"。理解这个分类,才能理解后面的对比矩阵为什么在某些维度上差异悬殊。
7.2 六维度对比矩阵
使用第一章定义的六维评估框架(准确性、召回率、延迟、成本、隐私、可控性),对 10 个代表产品进行系统对比。
评分标准说明:◎ = 该维度的最佳实践水平(如召回率 ◎ 需具备混合检索+重排+衰减);○ = 有明确的解决方案但非最优;△ = 有限或基础实现;× = 缺失或严重不足;? = 实现未公开,无法评估。评分基于公开文档和架构分析,非实测 benchmark,仅供参考。
| 维度 | OpenClaw | ChatGPT Memory | Claude Projects | Gemini Memory | Apple Intelligence | MS Recall | Cursor Memory | NotebookLM | Mem0 | Letta/MemGPT |
|---|---|---|---|---|---|---|---|---|---|---|
| 准确性 | ○ 两阶段去重+分类 | ? 未公开 | ○ 文档直接检索无提取幻觉 | ? 未公开 | ? 未公开 | △ 截图OCR有噪声 | △ 代码上下文规则 | ○ 文档原文检索 | ○ 图谱去重 | △ 基础向量 |
| 召回率 | ◎ 8步混合管线 | △ 行为推测 | ○ 项目内文档检索 | ? 未公开 | ? 未公开 | ○ 时间线+OCR全文 | ○ 代码索引+语义 | ○ 文档语义检索 | ○ 向量检索 | ○ 向量+心跳 |
| 延迟 | △ 8步管线+本地CE ~200ms | ◎ 云端优化 | ◎ 云端优化 | ◎ 云端优化 | ◎ 设备端硬件加速 | ○ 本地索引 | ○ 本地索引+云推理 | ○ 云端检索 | ○ API调用 | △ 向量检索开销 |
| 成本 | △ ~$5/月附加Token | ◎ 含在订阅中 | ◎ 含在订阅中 | ◎ 含在订阅中 | ◎ 免费(设备内置) | ◎ 免费(OS内置) | ○ 含在订阅中 | ◎ 免费 | △ API按量计费 | △ 自托管成本 |
| 隐私 | ◎ 本地优先+全量可导出 | × 云端不可审计 | △ 项目数据云端存储 | × 云端存储 | ○ 设备端处理 | △ opt-in+加密(争议中) | △ 本地索引+云推理 | △ Google云端 | △ 取决于部署方式 | ○ 可自托管 |
| 可控性 | ◎ 文件可读+插件可替换 | △ 有限记忆管理UI | ○ 项目内文档可管理 | △ 有限控制 | △ 系统级控制有限 | ○ 可删除+过滤 | △ 有限控制 | ○ 文档可管理 | ○ API可操作 | ○ 开源可自管理 |
几个需要特别说明的评分:
- Cursor Memory:代码索引在本地完成,但推理和记忆管理经过云端,因此隐私评为 △ 而非 × 或 ○。
- NotebookLM:Google 推出的文档知识库工具,支持上传文档后进行语义检索和问答,但不具备对话式自动记忆——你需要手动上传文档,而不是它自动从对话中提取。
- Microsoft Recall:初版因明文存储被安全社区曝光而撤回,重新发布后改为 opt-in + 加密 + 敏感内容过滤(DRM 内容、银行页面等)。隐私评级从初版的"×"修正为"△",但仍有争议。另外,其记忆方式(截图+OCR)与对话式记忆在本质上是不同的技术路线。
7.3 关键洞察
从矩阵中提炼六条洞察:
1. ChatGPT Memory 赢在体验,输在透明度。零配置自动工作——你不需要知道什么是 Workspace、Plugin、dmScope。但你无法审计它记住了什么、为什么记住、何时遗忘。对大多数用户来说这不是问题;对隐私敏感用户来说这是根本问题。
2. Apple Intelligence 赢在数据广度,输在开放性。能读你的邮件、日历、照片、短信——这是任何第三方应用都无法企及的数据广度。但实现完全封闭、数据不可导出、只在苹果生态内工作。
3. Microsoft Recall 赢在全设备覆盖,隐私仍是最大变量。截图式记忆理论上可以覆盖用户在电脑上做的所有事情——不限于特定应用。初版的安全问题(明文存储、未加密索引)被安全社区曝光后撤回,重新发布版本做了显著改进(opt-in、加密、敏感内容过滤)。技术改进值得肯定,但公众信任的修复需要时间——这是一个"技术问题已解决但信任问题未解决"的典型案例。
4. Cursor/Copilot Memory 赢在开发者体验,输在通用性。深度集成 IDE,代码上下文理解远超通用型 Agent。但只覆盖编码场景——你在 Slack 的讨论、在 WhatsApp 的决策、在邮件的沟通,它一概不知。
5. Mem0/Zep 赢在嵌入灵活性,输在端到端体验。作为 MaaS(记忆即服务),API 设计干净、集成方便。但需要开发者自己构建上层应用——它是一个"引擎"而不是一辆"车"。
6. OpenClaw 赢在组合拳。在本文涵盖的开源方案中(OpenClaw、Letta/MemGPT),唯 OpenClaw 同时具备 24/7 全渠道在场 + 本地优先 + 插件生态 + Agent 自修改的组合。没有哪个单一维度是绝对第一(延迟不如云端优化、配置复杂度高于零配置产品),但六维度的综合均衡度——尤其是隐私和可控性这两个常被牺牲的维度——目前已评估的开源方案中尚无在组合完整度上匹敌者。
从整个竞品版图中,可以提炼出一个 AI 记忆的不可能三角:隐私 × 体验 × 成本三者不可兼得。模型原生方案(ChatGPT/Claude)选了体验+成本、牺牲隐私;OS 级方案(Apple/MS)选了体验+隐私(部分)、成本由硬件锁定承担;OpenClaw 选了隐私+成本灵活、牺牲开箱体验。理解每家在不可能三角中的位置,比争论谁"更好"有意义得多。
需注意:矩阵未穷尽所有开源项目(如 khoj、personal-ai 等),结论的适用范围有限。
闭环评估
回到第一章提出的三个核心矛盾,看全景竞品对比如何验证 OpenClaw 的回应:
| 矛盾 | OpenClaw 的回应 | 竞品对照 |
|---|---|---|
| 无限积累 vs 有限窗口 | 三层架构 + 8 步管线 | ChatGPT/Claude 用云端优化解决延迟问题,但牺牲了透明度 |
| 自动化 vs 准确性 | 开放插件生态让社区竞争优化 | Mem0/Zep 提供 API 级灵活性但需自建应用 |
| 持久性 vs 隐私 | 本地优先 + 文件可读 + 全量可导出 | 模型原生方案全部存在云端,OS 级方案限于特定生态 |
OpenClaw 不是每个维度都最优,但它选择了一组特定的 trade-off——把隐私和可控性放在第一位,用延迟和配置复杂度作为代价。这不是自然而然的"最佳方案",而是一个有明确价值观的设计选择。
下一章:竞品分析是外部视角,下一章回到用户视角——三个真实场景验证前面所有分析是否站得住脚。