首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >AI记忆宫殿?这个开源项目把“全量对话都存下来”做到了榜单第一

AI记忆宫殿?这个开源项目把“全量对话都存下来”做到了榜单第一

作者头像
山行AI
发布2026-04-16 16:18:20
发布2026-04-16 16:18:20
320
举报

很多人用 AI 时都有一个共同痛点:

这一轮聊得再深入,下一次开新会话,模型还是像“失忆”了一样。

你解释过的偏好、讨论过的架构、踩过的坑、做过的决策,经常在会话结束后就断掉了。于是,用户只能一次次重复上下文,AI 也很难真正变成长期协作工具。

最近 GitHub 上的开源项目 MemPalace,试图用一种很不一样的思路解决这个问题:

不是让 AI 决定“什么值得记住”,而是尽量把原始对话都保留下来,再让检索系统把它找回来。

更值得注意的是,项目作者声称它在 LongMemEval 上拿到了目前已公开的最高分之一,而且 本地运行、零 API 调用、免费开源

一、它想解决的,不只是“聊天记录保存”

传统的 AI 记忆方案,常见做法是:

从对话里提炼摘要

抽取“用户偏好”之类的结构化信息

再把这些压缩后的内容交给模型参考

这种方式的问题在于:

一旦系统替你决定“什么重要”,很多真正有价值的上下文,可能已经在压缩过程中丢掉了。

比如系统可能只记住:

用户偏好 Postgres

但它不一定能保留下来:

你为什么做这个选择

当时比较过哪些方案

哪些约束让你不得不这么定

这个决策背后的争论和背景

而在真实协作里,很多关键信息恰恰藏在这些“过程细节”里。

MemPalace 的核心判断很直接:

与其让 AI 先删减,不如先完整保留,再去做可检索化。

二、MemPalace 的思路:不先摘要,而是先“建宫殿”

MemPalace 这个名字,来自经典的“记忆宫殿”方法。

古希腊演说家会把不同概念想象成放在一栋建筑的不同房间里,回忆时只要沿着这栋建筑“走一遍”,就能重新找到对应内容。

这个项目把类似思路迁移到了 AI 记忆系统里,把信息组织成三层结构:

•Wings(翼):按人或项目划分

•Halls(大厅):按记忆类型划分

•Rooms(房间):对应具体主题或具体想法

这样做的重点不是“制造一个更漂亮的目录”,而是给长期记忆建立一个可导航的空间结构

相比扁平化搜索索引,这种方式更强调:

记忆之间有位置关系

信息可以按项目、人物、主题分层回溯

检索不只是关键词匹配,而是带着结构去找

对于需要长期协作的 AI 场景,这种组织方式会更接近人类在复杂上下文里的工作习惯。

三、它最激进的一点:原始对话尽量原样存储

MemPalace 最吸引人的地方,在于它没有把“摘要压缩”当默认路径。

项目说明里提到,它会把真实交流内容以原始逐字(raw verbatim)的方式存进 ChromaDB,而不是先做总结、提炼或裁剪。

作者给出的结论是:

•96.6% 的 LongMemEval R@5 成绩,来自 raw mode

这套结果是基于原始逐字存储,而不是压缩模式

不需要调用外部 API

不依赖云端订阅

可以在本地环境复现

这背后反映的是一种非常鲜明的产品哲学:

先忠实保存信息,再依靠语义检索去找;而不是先“理解一遍”再决定留下什么。

这对很多 AI 工具开发者来说,其实是一个重要提醒:

有时候,记忆系统最容易出错的地方,不是“存不下来”,而是“过早替用户做筛选”。

四、AAAK 不是主角,反而是项目最诚实的一部分

MemPalace 里还有一个实验性机制,叫 AAAK

你可以把它理解成一种“有损缩写方言”,目标是把重复出现的实体压缩成更少 token,方便在更大规模数据下节省上下文成本。

它的几个特点是:

面向文本型大模型

不依赖专门解码器

Claude、GPT、Gemini、Llama、Mistral 等理论上都能读

它更像额外压缩层,不是默认存储模式

但更值得说的是,项目方没有把这个实验功能包装成“更先进”。

相反,他们明确承认:

AAAK 当前在 LongMemEval 上的表现 低于 raw mode

文中给出的对比是 84.2% vs 96.6%

这部分还在继续迭代

这种写法很少见,但也因此更可信。

在很多项目只强调“新机制”“新架构”的时候,MemPalace 反而把实验特性暂时不如基础方案这件事写得很清楚。

这不是减分项,反而是一个成熟信号:团队知道什么已经成立,什么还没有。

五、为什么这个项目会让内容创作者和工具开发者都关注?

如果你是普通 AI 用户,这个项目的价值在于:

你不必每次都重复解释自己的背景

历史讨论不容易在新会话里彻底断档

长期项目、复杂决策、持续协作更容易积累下来

如果你是 AI 产品开发者,它带来的启发更大:

1. 长期记忆不一定先靠“摘要”取胜

很多团队默认认为,长期记忆的核心是“压缩得更聪明”。

但 MemPalace 给出的方向是:

也许真正有效的,是先保真,再检索。

2. 本地化与零 API 调用,本身就是竞争力

项目强调:

全本地运行

不依赖外部服务

不上云

可复现

这对重视隐私、成本和可控性的用户群体来说,非常有吸引力。

3. “可解释的结构”比黑箱记忆更容易被信任

用户往往不怕 AI 记不住,怕的是:

它到底记住了什么,我不知道

它为什么忘了,我也不知道

它是不是误解了我的意思,我更不知道

而“宫殿式”结构至少提供了一种更可理解的框架,让记忆系统不再只是一个不可见的黑箱。

六、也要看到它现在仍有几个现实问题

当然,从目前公开材料来看,MemPalace 也不是没有疑点或限制。

1. 高分来自特定模式,不代表所有模式都强

项目已经明确说明:

•96.6% 的成绩来自 raw verbatim mode

不是 AAAK

也不是 rooms mode

所以如果有人只看“最高分”而忽略具体前提,很容易误判这个项目的整体成熟度。

2. 适合“长期对话记忆”,不代表适合一切数据形态

项目现在重点验证的还是对话类数据。

虽然作者提到它可以扩展到其他本地数据存储类型,但实际迁移成本、检索效果和工程复杂度,还要看后续验证。

3. README 已被社区快速审视

项目作者提到,发布后几小时内,社区就指出了 README 里的一些真实问题,他们也给出了说明。

这说明项目热度高、关注度高,但也意味着:

它仍处在快速被检验和修正的阶段。

对于准备引入生产环境的人来说,最好把它视为一个值得重点关注的前沿开源项目,而不是已经完全定型的工业标准答案。

结语

MemPalace 最有意思的地方,不只是它拿到了一个很高的 benchmark 分数。

更关键的是,它重新把一个问题摆回了台面:

AI 的长期记忆,到底该先“理解后保存”,还是先“完整保存后检索”?

从目前结果看,后者并不是一个保守方案,反而可能更有效。

这对整个 AI Agent、个人知识库、长期协作助手赛道,都是一个值得重看的信号。

如果你最近正在关注:

AI Agent 的长期记忆

本地化 AI 工具

面向个人或团队的记忆层设计

更可信、可复现、可控的 AI 工作流

那么 MemPalace 很值得你亲自去读一遍。

参考来源

MemPalace GitHub 仓库[1]

声明

本文由山行整理自:https://github.com/milla-jovovich/mempalace ,如果对您有帮助,请帮忙点赞、关注、收藏,谢谢~

参考链接

[1] MemPalace GitHub 仓库: https://github.com/milla-jovovich/mempalace

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-04-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 山行AI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 很多人用 AI 时都有一个共同痛点:
    • 一、它想解决的,不只是“聊天记录保存”
    • 二、MemPalace 的思路:不先摘要,而是先“建宫殿”
    • 三、它最激进的一点:原始对话尽量原样存储
    • 四、AAAK 不是主角,反而是项目最诚实的一部分
    • 五、为什么这个项目会让内容创作者和工具开发者都关注?
      • 1. 长期记忆不一定先靠“摘要”取胜
      • 2. 本地化与零 API 调用,本身就是竞争力
      • 3. “可解释的结构”比黑箱记忆更容易被信任
    • 六、也要看到它现在仍有几个现实问题
      • 1. 高分来自特定模式,不代表所有模式都强
      • 2. 适合“长期对话记忆”,不代表适合一切数据形态
      • 3. README 已被社区快速审视
    • 结语
    • 参考来源
  • 声明
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档