AI 永久记忆系统:开源多模型编排方案
开源AI永久记忆系统:通过MCP协议连接Claude等模型,共享基于SQLite FTS5的知识库,实现多模型自动切换与指令自学习,成本约60美元/月。
在人工智能助手日益普及的今天,一个普遍的痛点逐渐浮现:这些强大的模型往往缺乏持续的对话记忆能力。每次交互都像是一次全新的会面,历史上下文无法有效保留,这严重限制了其在复杂、长期任务中的应用价值。一位开发者正是出于对此现状的厌倦,决定亲手构建一套解决方案。他在自己的虚拟专用服务器上部署了一个私有的知识库服务器,通过创新的方式将 Claude Code 和 Claude.ai 等 AI 助手连接起来,让它们能够共享一个持久、可检索的“大脑”。
核心架构:知识库服务器与 MCP 协议
这套系统的核心逻辑清晰而高效。它首先将用户本地的 Obsidian 笔记库接入到运行在 VPS 上的知识库服务器中。该服务器利用 SQLite 内置的 FTS5 全文搜索引擎对笔记内容进行高效索引和检索。最关键的一步是通过模型上下文协议,将知识库与 Claude.ai 和 Claude Code 等 AI 助手连接起来。这意味着,当你在 Claude.ai 的对话界面中撰写内容时,另一端的 Claude Code 能够立即搜索并读取到相关信息;反之亦然,从而在两个独立的 AI 界面间实现了近乎实时的记忆同步与共享。
多模型智能编排与故障恢复
为了进一步提升系统的鲁棒性和可用性,开发者引入了名为 Daniel 的多模型编排器。这个编排器巧妙地封装了 Claude、Codex 和 Gemini 等主流 AI 模型的命令行接口,并让这三个模型共享同一个后端知识库。其最大的价值在于实现了智能的故障切换机制。例如,当 Claude 服务因限流或意外宕机时,编排器会自动将工作负载无缝切换到 Codex,由它接过当前的上下文继续执行任务。在实际案例中,当 Claude Code 发生大规模故障时,系统正是通过自动切换至 Codex,成功通过 SSH 登录 VPS 诊断知识库问题,并在手机终端上给出了有效的恢复命令,确保了服务的零停机运行。
自学习机制与上下文积累
系统的智能化不仅体现在多模型调度上,更在于其独特的自学习机制。在每次对话交互之后,AI 会根据本次对话中哪些指令有效、哪些无效来自动更新其内部的指令文件。经过超过一百轮的对话迭代与积累,系统已经能够深刻记忆用户的代码库结构、个人架构偏好以及惯用的开发模式。这种持续的上下文积累,正是其能够一次性写出高质量、干净代码的根本原因。AI 不再是从零开始响应,而是基于一个不断丰富和优化的知识体系进行创作。
技术栈与成本优势
该方案采用了一套务实且高效的技术栈,主要包括 Node.js 运行时、SQLite FTS5 全文搜索引擎、MCP 协议、Express 框架以及 Obsidian Sync。值得注意的是,它并未依赖复杂的向量数据库或特定的云服务,从而简化了架构并降低了成本。整套系统运行在开发者自己的 VPS 上,每月成本大约为 60 美元,却能让三个高级 AI 模型同时获得持久记忆能力,性价比显著。
工作流程与核心功能
整个系统的工作流程可以概括为:首先由用户人工筛选并维护 Obsidian 笔记库作为原始知识源;这些笔记被自动摄取到 VPS 上的知识库服务器中,并经过 SQLite FTS5 优化处理以减少 token 消耗;最后通过统一的 MCP 接口,提供给 Claude Code、Codex 和 Gemini 等模型调用,实现“共享同一个大脑”的效果。
其核心功能丰富且实用,包括带排序结果和高亮片段的全文搜索,以及四个关键的 MCP 工具:kb_search、kb_list、kb_read 和 kb_ingest。系统还提供了便于管理的 Web 控制面板和命令行工具。知识摄取过程高度自动化,能够处理 Obsidian 笔记库和 Claude 生成的记忆目录。最具特色的是其三层存储结构,通过区分冷、热、长期记忆,有效防止了上下文在多次对话中发生漂移,确保 AI 始终基于最相关、最精炼的信息进行响应。
社区讨论与设计哲学
这一方案也引发了技术社区的深入讨论。有评论者质疑让 AI 直接写入知识库可能会破坏人工记录笔记本身的价值,他们认为记录的过程才是知识内化的关键,因此建议将 AI 生成的笔记与人工笔记分开存放。也有用户分享了更简单的替代方案,例如直接使用文件系统连接器将笔记库加载到 Claude Code 中。
面对这些讨论,开发者指出,构建记忆层的真正难点往往不在于搭建,而在于信息的去重。在多次对话中,针对同一话题可能会产生大量高度相似的记忆条目,系统需要在保存新内容前,先检索知识库中是否已存在类似信息,以避免冗余。开发者进一步解释,采用数据库检索而非将全部内容塞入有限的上下文窗口,可以节省高达 90% 的 token 消耗。通过为所有内容建立索引,高优先级的信号自然会浮现到检索结果的顶部。Obsidian 笔记库作为唯一的“真相源”,配合 AI 从中提取、优化并存储关键信息,完美保持了人工筛选的完整性与权威性。
展望:从开源项目到托管服务
这套开源方案的实际应用甚至早于 Google 近期发布的类似项目,并且独具多模型编排和人工筛选机制。为了满足更广泛用户的需求,开发者还推出了名为 Memstalker 的 SaaS 版本。该服务提供了托管的 Obsidian 无头服务器和知识库,并集成了针对 ChatGPT 和 Claude 的定制化连接器,以每月 20 美元的订阅费为用户提供开箱即用的持久化 AI 记忆体验。
原文链接: 开源AI永久记忆系统



