昨天刷GitHub Trending的时候,一个作者名让我愣了一下——Milla Jovovich。对,就是那个《生化危机》里拿双枪打丧尸的爱丽丝。点进去一看,17K+ Star,LongMemEval 96.6%。我当时脑子里只有一个念头:这世道,演员都卷到AI圈了?
但看完项目介绍,我发现这不是明星玩票。MemPalace是一个正经的AI长期记忆系统,而且思路和其他人不太一样。

先说说这是个啥
MemPalace瞄准的问题很直接:你和AI聊了一个月,它转眼就忘。昨天讨论的架构方案,今天再问,它一脸茫然。传统的做法是向量数据库——把对话切片、Embedding、按相似度召回。但问题也出在这:AI替你做决定了,它觉得”不重要”的信息就直接丢了。
MemPalace的做法是:全量存下来,一字不动。然后用一种类似”记忆宫殿”的空间结构来组织,而不是简单的向量检索。
创始人团队挺有意思——Milla Jovovich负责架构设计,她的程序员老友Ben Sigman写代码,Claude当开发助手。三个人做了六个月。
数据表现怎么样
项目上线几天,GitHub Star从3.3k飙到17.4k,现在还在涨。数字归数字,测试成绩确实让人意外:
| 测试项 | 成绩 |
|---|---|
| LongMemEval(RAW模式) | 96.6% |
| LoCoMo(超长记忆) | 100% |
| ConvoMem(短期记忆) | 92.9% |
LoCoMo测的是数月跨度的记忆召回,MemPalace拿了满分。测试规模是6个月对话,约1950万tokens,相当于200-400本书或10-30个中型代码库的信息量。
检索效率也比全局乱搜提升了约34%。
用了什么技术
核心不是向量数据库,而是空间导航结构。整个系统按”宫殿”的层级来组织:
| 层级 | 作用 |
|---|---|
| Palace(宫殿) | 包含所有知识的顶层空间 |
| Wing(翅膀) | 代表一个人或一个项目,独立空间 |
| Room(房间) | 具体主题,如认证、计费、部署 |
| Hall(走廊) | 定义记忆属性:建议、偏好、决策等 |
| Drawer(抽屉) | 原始记录,一字不动完整封存 |
| Closet(衣柜) | 压缩摘要,供AI快速读取 |
| Tunnel(隧道) | 不同翅膀出现相同主题时,自动打通 |
记忆加载是分层的,不是每次都全量塞给AI:
| 层级 | 内容 | 大小 |
|---|---|---|
| L0+L1(常驻) | AI自我认知+基本用户上下文 | 约170 tokens |
| L2(按需) | 房间级召回,局部补充 | 约13,500 tokens |
| L3(按需) | 全局深度搜索 | 动态 |
AAAK是项目自己搞的一套压缩语言,专为AI设计,主流大模型能直接看懂。原理是压缩重复实体来省Token。
几个让我意外的点
本地优先,数据不上云。 所有处理在本地完成,隐私这块拿捏得死死的。
全量记录,不丢信息。 你和AI的每次对话全部封存,不是AI挑挑拣拣觉得重要的才存。
双模式精度选择。 RAW模式召回率96.6%,追求保真就用这个;AAAK模式召回率84.2%,但省Token,想控制成本可以选。
MCP接入。 连上Claude后,AI会自动调用MemPalace检索工具,不需要你手动操作。
成本极低。 年运行成本约10美元。传统压缩方案要到507美元左右,差了一个数量级。
适合谁用
- 和AI长期协作的开发者,需要AI记住项目背景的
- 对数据隐私敏感,不想把对话传云端的
- 做AI Agent,需要长期记忆支持的团队
- 个人用户,想把几个月的AI对话都留档的
怎么用
安装:
pip install mempalace
初始化:
mempalace init ~/projects/myapp
挖掘项目数据:
mempalace mine ~/projects/myapp
挖掘对话记录:
mempalace mine ~/chats/ --mode convos
接Claude(MCP模式):
claude mcp add mempalace -- python -m mempalace.mcp_server
手动检索:
mempalace wake-up > context.txt # 加载基础记忆
mempalace search "auth decisions" > results.txt # 按需搜索
和同类对比
| 维度 | MemPalace | 传统向量方案 |
|---|---|---|
| 记忆组织 | 空间导航结构(记忆宫殿) | 切片+Embedding+相似度召回 |
| 信息筛选 | 全量记录 | AI决定”什么值得记” |
| 数据隐私 | 纯本地 | 多依赖云端 |
| 检索方式 | 分层逐级缩小范围 | 全局乱搜或纯语义检索 |
| 年成本 | 约10美元 | 约507美元 |
MemPalace不替你做信息筛选的决定,而是全部存下来,用结构化的方式帮你快速找到需要的。
有啥需要注意的
AAAK模式召回率84.2%,比RAW模式的96.6%低了12个百分点。如果你要查的是关键信息,建议用RAW模式。省Token和保精度之间得做个选择。
fact_checker.py标注为”集成中”,还没完全上线。现在系统不会自动帮你校验记忆之间的一致性,比如同一个任务被记成两个人的,暂时不会自动发现。
另外,检索效率的提升建立在正确分层的基础上。如果你的Wing、Hall、Room分类比较混乱,效果会打折扣。数据挖掘和分类的准确性有一定要求。
相关链接
- GitHub:https://github.com/MemPalace/mempalace
- 安装:pip install mempalace
- 文档:mempalaceofficial.com
MemPalace让我记住的倒不是Milla Jovovich的明星光环,而是它做了一件别人没做的事——不替用户决定什么该记、什么不该记,全量存下来,再用结构化的方式帮你找到。
这个思路在AI记忆领域算是独一份。96.6%的召回率和10美元的年成本,数据上说得通。但好不好用,取决于你的使用场景:如果你需要AI记住半年前的项目决策,它很合适;如果你只是偶尔和AI闲聊几句,可能有点大材小用。
还在手动整理AI对话记录的,可以试下。
