开源AI永久记忆系统与多模型编排器
一个开源项目通过知识库服务器和MCP协议,为多个AI模型提供共享的持久记忆,并实现了多模型故障自动切换与指令自学习机制。
AI助手在对话中缺乏持久记忆是一个普遍痛点。一位开发者为了解决此问题,在个人VPS上构建了一个知识库服务器,旨在让Claude Code和Claude.ai等模型通过MCP协议共享记忆。该系统还集成了多模型编排器,以应对模型服务中断或限流,并引入了AI自学习机制。
核心内容
系统的核心逻辑是将Obsidian笔记库接入运行在VPS上的知识库服务器。该服务器使用SQLite FTS5进行全文检索,并通过MCP协议为Claude.ai和Claude Code等客户端提供接口。这使得在一个客户端写入的内容,可被另一个客户端立即搜索和读取,实现了跨会话和跨工具的记忆共享。
更进一步的是多模型编排器Daniel。它封装了Claude、Codex和Gemini的命令行接口,使这三个模型能够共享同一个知识库。当某个模型(如Claude)发生限流或故障时,系统会自动切换到另一个可用模型(如Codex)继续工作,从而保障服务的连续性。
系统具备自学习能力。每次对话后,AI会根据交互的有效性自动更新其指令文件。经过上百轮对话的积累,系统能够记住用户的代码库、架构偏好和习惯模式,从而提升输出代码等任务的质量和一次性成功率。
在技术架构上,项目采用Node.js、SQLite FTS5、MCP、Express等技术栈,不依赖向量数据库和特定云服务。其工作流程为:经过人工筛选的Obsidian笔记库,经由知识库服务器(利用SQLite FTS5优化token使用)处理,再通过MCP接口提供给各个AI模型使用。
系统提供了包括带排序和高亮的全文搜索在内的核心功能,并通过四个MCP工具(kb_search, kb_list, kb_read, kb_ingest)进行操作。它还设计了三层存储结构(冷、热、长期记忆)来防止上下文漂移,并通过提升机制避免每次会话都引入大量历史数据噪音。
价值与影响
该方案通过数据库检索而非依赖大上下文窗口,据称可节省90%的token消耗。其关键价值在于能够从Obsidian中摄取各类知识(如推文、视频字幕、论文),经过AI综合编目后,供多个模型低成本复用,这区别于简单的对话延续功能。
系统采用Obsidian作为人工筛选的“真相源”,结合AI进行提取和优化存储,试图在自动化与人工控制之间取得平衡。针对记忆去重的挑战,系统通过先检索后保存的机制来避免重复条目。
与后来Google开源的Always-On Memory Agent相比,该方案更早投入使用,并集成了多模型编排能力。开发者还基于此推出了SaaS服务memstalker.com,提供托管的知识库和定制连接器。该项目展示了一种实现AI持久记忆、提升模型协作可靠性的可行技术路径。
来源:黑洞资源笔记




