
这一轮聊得再深入,下一次开新会话,模型还是像“失忆”了一样。
你解释过的偏好、讨论过的架构、踩过的坑、做过的决策,经常在会话结束后就断掉了。于是,用户只能一次次重复上下文,AI 也很难真正变成长期协作工具。
最近 GitHub 上的开源项目 MemPalace,试图用一种很不一样的思路解决这个问题:
不是让 AI 决定“什么值得记住”,而是尽量把原始对话都保留下来,再让检索系统把它找回来。
更值得注意的是,项目作者声称它在 LongMemEval 上拿到了目前已公开的最高分之一,而且 本地运行、零 API 调用、免费开源。
传统的 AI 记忆方案,常见做法是:
•从对话里提炼摘要
•抽取“用户偏好”之类的结构化信息
•再把这些压缩后的内容交给模型参考
这种方式的问题在于:
一旦系统替你决定“什么重要”,很多真正有价值的上下文,可能已经在压缩过程中丢掉了。
比如系统可能只记住:
•用户偏好 Postgres
但它不一定能保留下来:
•你为什么做这个选择
•当时比较过哪些方案
•哪些约束让你不得不这么定
•这个决策背后的争论和背景
而在真实协作里,很多关键信息恰恰藏在这些“过程细节”里。
MemPalace 的核心判断很直接:
与其让 AI 先删减,不如先完整保留,再去做可检索化。
MemPalace 这个名字,来自经典的“记忆宫殿”方法。
古希腊演说家会把不同概念想象成放在一栋建筑的不同房间里,回忆时只要沿着这栋建筑“走一遍”,就能重新找到对应内容。
这个项目把类似思路迁移到了 AI 记忆系统里,把信息组织成三层结构:
•Wings(翼):按人或项目划分
•Halls(大厅):按记忆类型划分
•Rooms(房间):对应具体主题或具体想法
这样做的重点不是“制造一个更漂亮的目录”,而是给长期记忆建立一个可导航的空间结构。
相比扁平化搜索索引,这种方式更强调:
•记忆之间有位置关系
•信息可以按项目、人物、主题分层回溯
•检索不只是关键词匹配,而是带着结构去找
对于需要长期协作的 AI 场景,这种组织方式会更接近人类在复杂上下文里的工作习惯。
MemPalace 最吸引人的地方,在于它没有把“摘要压缩”当默认路径。
项目说明里提到,它会把真实交流内容以原始逐字(raw verbatim)的方式存进 ChromaDB,而不是先做总结、提炼或裁剪。
作者给出的结论是:
•96.6% 的 LongMemEval R@5 成绩,来自 raw mode
•这套结果是基于原始逐字存储,而不是压缩模式
•不需要调用外部 API
•不依赖云端订阅
•可以在本地环境复现
这背后反映的是一种非常鲜明的产品哲学:
先忠实保存信息,再依靠语义检索去找;而不是先“理解一遍”再决定留下什么。
这对很多 AI 工具开发者来说,其实是一个重要提醒:
有时候,记忆系统最容易出错的地方,不是“存不下来”,而是“过早替用户做筛选”。
MemPalace 里还有一个实验性机制,叫 AAAK。
你可以把它理解成一种“有损缩写方言”,目标是把重复出现的实体压缩成更少 token,方便在更大规模数据下节省上下文成本。
它的几个特点是:
•面向文本型大模型
•不依赖专门解码器
•Claude、GPT、Gemini、Llama、Mistral 等理论上都能读
•它更像额外压缩层,不是默认存储模式
但更值得说的是,项目方没有把这个实验功能包装成“更先进”。
相反,他们明确承认:
•AAAK 当前在 LongMemEval 上的表现 低于 raw mode
•文中给出的对比是 84.2% vs 96.6%
•这部分还在继续迭代
这种写法很少见,但也因此更可信。
在很多项目只强调“新机制”“新架构”的时候,MemPalace 反而把实验特性暂时不如基础方案这件事写得很清楚。
这不是减分项,反而是一个成熟信号:团队知道什么已经成立,什么还没有。
如果你是普通 AI 用户,这个项目的价值在于:
•你不必每次都重复解释自己的背景
•历史讨论不容易在新会话里彻底断档
•长期项目、复杂决策、持续协作更容易积累下来
如果你是 AI 产品开发者,它带来的启发更大:
很多团队默认认为,长期记忆的核心是“压缩得更聪明”。
但 MemPalace 给出的方向是:
也许真正有效的,是先保真,再检索。
项目强调:
•全本地运行
•不依赖外部服务
•不上云
•可复现
这对重视隐私、成本和可控性的用户群体来说,非常有吸引力。
用户往往不怕 AI 记不住,怕的是:
•它到底记住了什么,我不知道
•它为什么忘了,我也不知道
•它是不是误解了我的意思,我更不知道
而“宫殿式”结构至少提供了一种更可理解的框架,让记忆系统不再只是一个不可见的黑箱。
当然,从目前公开材料来看,MemPalace 也不是没有疑点或限制。
项目已经明确说明:
•96.6% 的成绩来自 raw verbatim mode
•不是 AAAK
•也不是 rooms mode
所以如果有人只看“最高分”而忽略具体前提,很容易误判这个项目的整体成熟度。
项目现在重点验证的还是对话类数据。
虽然作者提到它可以扩展到其他本地数据存储类型,但实际迁移成本、检索效果和工程复杂度,还要看后续验证。
项目作者提到,发布后几小时内,社区就指出了 README 里的一些真实问题,他们也给出了说明。
这说明项目热度高、关注度高,但也意味着:
它仍处在快速被检验和修正的阶段。
对于准备引入生产环境的人来说,最好把它视为一个值得重点关注的前沿开源项目,而不是已经完全定型的工业标准答案。
MemPalace 最有意思的地方,不只是它拿到了一个很高的 benchmark 分数。
更关键的是,它重新把一个问题摆回了台面:
AI 的长期记忆,到底该先“理解后保存”,还是先“完整保存后检索”?
从目前结果看,后者并不是一个保守方案,反而可能更有效。
这对整个 AI Agent、个人知识库、长期协作助手赛道,都是一个值得重看的信号。
如果你最近正在关注:
•AI Agent 的长期记忆
•本地化 AI 工具
•面向个人或团队的记忆层设计
•更可信、可复现、可控的 AI 工作流
那么 MemPalace 很值得你亲自去读一遍。
•MemPalace GitHub 仓库[1]
本文由山行整理自:https://github.com/milla-jovovich/mempalace ,如果对您有帮助,请帮忙点赞、关注、收藏,谢谢~
参考链接
[1] MemPalace GitHub 仓库: https://github.com/milla-jovovich/mempalace