起猛了,在GitHub刷到《生化危机》女主的AI项目,结果还挺能打

昨天刷GitHub Trending的时候,一个作者名让我愣了一下——Milla Jovovich。对,就是那个《生化危机》里拿双枪打丧尸的爱丽丝。点进去一看,17K+ Star,LongMemEval 96.6%。我当时脑子里只有一个念头:这世道,演员都卷到AI圈了?

但看完项目介绍,我发现这不是明星玩票。MemPalace是一个正经的AI长期记忆系统,而且思路和其他人不太一样。

起猛了,在GitHub刷到《生化危机》女主的AI项目,结果还挺能打

先说说这是个啥

MemPalace瞄准的问题很直接:你和AI聊了一个月,它转眼就忘。昨天讨论的架构方案,今天再问,它一脸茫然。传统的做法是向量数据库——把对话切片、Embedding、按相似度召回。但问题也出在这:AI替你做决定了,它觉得”不重要”的信息就直接丢了。

MemPalace的做法是:全量存下来,一字不动。然后用一种类似”记忆宫殿”的空间结构来组织,而不是简单的向量检索。

创始人团队挺有意思——Milla Jovovich负责架构设计,她的程序员老友Ben Sigman写代码,Claude当开发助手。三个人做了六个月。

数据表现怎么样

项目上线几天,GitHub Star从3.3k飙到17.4k,现在还在涨。数字归数字,测试成绩确实让人意外:

测试项 成绩
LongMemEval(RAW模式) 96.6%
LoCoMo(超长记忆) 100%
ConvoMem(短期记忆) 92.9%

LoCoMo测的是数月跨度的记忆召回,MemPalace拿了满分。测试规模是6个月对话,约1950万tokens,相当于200-400本书或10-30个中型代码库的信息量。

检索效率也比全局乱搜提升了约34%。

用了什么技术

核心不是向量数据库,而是空间导航结构。整个系统按”宫殿”的层级来组织:

层级 作用
Palace(宫殿) 包含所有知识的顶层空间
Wing(翅膀) 代表一个人或一个项目,独立空间
Room(房间) 具体主题,如认证、计费、部署
Hall(走廊) 定义记忆属性:建议、偏好、决策等
Drawer(抽屉) 原始记录,一字不动完整封存
Closet(衣柜) 压缩摘要,供AI快速读取
Tunnel(隧道) 不同翅膀出现相同主题时,自动打通

记忆加载是分层的,不是每次都全量塞给AI:

层级 内容 大小
L0+L1(常驻) AI自我认知+基本用户上下文 约170 tokens
L2(按需) 房间级召回,局部补充 约13,500 tokens
L3(按需) 全局深度搜索 动态

AAAK是项目自己搞的一套压缩语言,专为AI设计,主流大模型能直接看懂。原理是压缩重复实体来省Token。

几个让我意外的点

本地优先,数据不上云。 所有处理在本地完成,隐私这块拿捏得死死的。

全量记录,不丢信息。 你和AI的每次对话全部封存,不是AI挑挑拣拣觉得重要的才存。

双模式精度选择。 RAW模式召回率96.6%,追求保真就用这个;AAAK模式召回率84.2%,但省Token,想控制成本可以选。

MCP接入。 连上Claude后,AI会自动调用MemPalace检索工具,不需要你手动操作。

成本极低。 年运行成本约10美元。传统压缩方案要到507美元左右,差了一个数量级。

适合谁用

  • 和AI长期协作的开发者,需要AI记住项目背景的
  • 对数据隐私敏感,不想把对话传云端的
  • 做AI Agent,需要长期记忆支持的团队
  • 个人用户,想把几个月的AI对话都留档的

怎么用

安装:

pip install mempalace

初始化:

mempalace init ~/projects/myapp

挖掘项目数据:

mempalace mine ~/projects/myapp

挖掘对话记录:

mempalace mine ~/chats/ --mode convos

接Claude(MCP模式):


claude mcp add mempalace -- python -m mempalace.mcp_server

手动检索:

mempalace wake-up > context.txt    # 加载基础记忆
mempalace search "auth decisions" > results.txt    # 按需搜索

和同类对比

维度 MemPalace 传统向量方案
记忆组织 空间导航结构(记忆宫殿) 切片+Embedding+相似度召回
信息筛选 全量记录 AI决定”什么值得记”
数据隐私 纯本地 多依赖云端
检索方式 分层逐级缩小范围 全局乱搜或纯语义检索
年成本 约10美元 约507美元

MemPalace不替你做信息筛选的决定,而是全部存下来,用结构化的方式帮你快速找到需要的。

有啥需要注意的

AAAK模式召回率84.2%,比RAW模式的96.6%低了12个百分点。如果你要查的是关键信息,建议用RAW模式。省Token和保精度之间得做个选择。

fact_checker.py标注为”集成中”,还没完全上线。现在系统不会自动帮你校验记忆之间的一致性,比如同一个任务被记成两个人的,暂时不会自动发现。

另外,检索效率的提升建立在正确分层的基础上。如果你的Wing、Hall、Room分类比较混乱,效果会打折扣。数据挖掘和分类的准确性有一定要求。

相关链接

  • GitHub:https://github.com/MemPalace/mempalace
  • 安装:pip install mempalace
  • 文档:mempalaceofficial.com

MemPalace让我记住的倒不是Milla Jovovich的明星光环,而是它做了一件别人没做的事——不替用户决定什么该记、什么不该记,全量存下来,再用结构化的方式帮你找到。

这个思路在AI记忆领域算是独一份。96.6%的召回率和10美元的年成本,数据上说得通。但好不好用,取决于你的使用场景:如果你需要AI记住半年前的项目决策,它很合适;如果你只是偶尔和AI闲聊几句,可能有点大材小用。

还在手动整理AI对话记录的,可以试下。

开源项目

腾讯云正式开源 Cube Sandbox,一套面向 AI Agent 的执行环境底座

2026-4-21 17:31:25

AI工具

播刻岛评测:这款AI播客工具到底值不值得用?

2026-4-2 19:22:06

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧