Agent元年的关键一战:解决不了记忆,我们只会继续空耗Token

大家好,我是荣姐。

2025年,AI 圈的风向变了。前两年大家还在卷大脑,比拼谁的模型更聪明;现在大家开始卷手脚,也就是 Agent(智能体)。我们不再满足于和 AI 聊天,而是希望它能像员工一样真正去解决复杂的任务。

但在落地过程中,我们撞上了一个死结:AI 没有记忆。

这就像你招了一个哈佛毕业的高材生,他智商极高,但记忆只有 7 秒。新建一个会话,他立马把你忘得干干净净。 

我们拥有了最强的 CPU(大模型),却没给它配上内存条(Memory)。

虽然 OpenAI 和 Google 推出了自带的记忆功能,但对于企业级开发者来说,这又面临着两个问题:

  1. 1.数据带不走: 想从 GPT 换成 DeepSeek 来降本?对不起,记忆不互通。
  2. 2.隐私黑盒: 核心用户画像,谁敢完全放在别人的云端黑盒里?

行业呼唤的,是一个独立的、通用的、能掌握在自己手里的海马体。

这两天逛 GitHub,我还真挖到了一个能解决这个问题的开源项目,MemMachine

它背后的 MemVerge 团队从 2017 年就在死磕 Memory 技术,这次是真给 AI 装上了脑子。

我看到这个项目官网可以进行免费的在线体验,就去试了一把。

在线体验网址:https://memmachine.ai/playground/


图片

整个项目部署在huggingface上,需要填写一个Token值,只要在huggingface免费注册,创建一下token就可以使用了。


图片

在这里可以创建免费的Token。


图片

配置好就可以免费体验了。

我先输入自己的一些个人信息进去。使用GPT-5 Mini模型。

你好,我是荣姐,平时最喜欢看的科幻小说是《三体》,我的公众号名字是荣姐聊AI


图片

然后问个毫无相关的问题打叉,解释一下为什么下水道的井盖通常是圆的而不是方的?


图片

然后问一下我是谁,好了,到此为止,都是咱们熟知的和AI对话的部分。


图片

现在我开始新建会话,并且切换成谷歌的Gemini2.5模型,然后问我的公众号名字是什么?

可以看到非常精准的回答了我的问题,AI记住了我的公众号名字是荣姐聊AI。

不止可以随意切换会话,还能切换模型。


图片

再测试一下AI有没有根据记忆联想的能力。我输入了下面内容,说明我对花生过敏,受过伤,想减脂。


图片

创建一个新的会话,询问一下我的健身计划。

这次就不是冷冰冰的回答了,而且很贴心的记住了我受过伤,推荐对膝盖友好的运动方式。


图片

问餐饮建议,在推荐的坚果中还特别标注了除了花生,确实有了记忆不一样呀。


图片

可以在左下角对开的开关,看看有记忆和没有记忆给我们的感受。

一个是熟人的感觉,一个是机器人的感觉。


图片

这种被记住的安全感,才是有灵魂的Agent该有的样子。

这个时候是不是有人会说,这玩意不就是RAG吗?

如果只看表面,确实容易混淆。但当我仔细研究了它的 GitHub上面的技术架构图后,发现事情没那么简单。


图片

它的底层并没有把所有数据混在一起,而是根据数据的不同属性,选择了最适合的存储介质:

1、用户画像(Profile Memory),存入 PostgreSQL

架构图显示,MemMachine 选择将用户画像存储在 PostgreSQL(关系型数据库)中。

用户画像本质上是一组高确定性的事实

例如:{ "昵称": "荣姐", "过敏源": "花生" }。

对于这种结构化的键值数据,SQL 数据库的读写效率极高,且非常适合进行精准的增删改查

比如当用户的偏好发生变化时,系统可以直接更新对应字段,而不需要去向量库里大海捞针。

2、情景记忆(Episodic Memory),存入 Neo4j

更有意思的是,它将情景记忆存储在了 Neo4j(图数据库)中。

对话不仅仅是文本的堆砌,而是充满了因果关系逻辑流

图数据库能够完美地记录这种节点与连线的关系。

这意味着 AI 记住的不仅是你说了什么,更是对话的脉络。

当需要回忆上下文时,它能顺着图谱的路径进行检索,比单纯的文本匹配更具逻辑性。

3、数据主权(Data Ownership)

作为一个关注数据安全的技术人,这套架构最打动我的点在于完全的私有化

ChatGPT 的记忆: 是黑盒的,数据存储在云端,对开发者不可见。

MemMachine 的记忆: 是白盒的。无论是 Postgres 里的画像表,还是 Neo4j 里的对话图谱,都部署在你自己的服务器上。 这意味着,你拥有对记忆数据的绝对控制权。未来无论你切换到哪个大模型,这套沉淀下来的记忆资产都可以无缝迁移,永远跟着你的业务走。

对于开发者来说,光有架构不行,还得看硬指标。

在 AI 记忆领域,有个领先基准测试是LoCoMo(Long Conversational Memory) ,专门评估AI记忆系统与基础模型质量。该测试包含长对话数据及500组问答对,通过计算正确率来衡量AI记忆系统的效果和性能。MemMachine以92.3%的准确率,在AI Memory领域占据领先地位 。

图片
图片


而大家熟知的OpenAI原生Memory只有 0.53,Github上很火的Mem0也只有0.67。

这意味着,在处理那种跨度很长、细节很碎的复杂对话时,MemMachine是目前最精准的 AI 记忆系统

Agent可通过 RESTful API、Python SDK 或 MCP Server 连接到 MemMachine 的记忆核心。

官方文档:https://memmachine.ai/

GitHub 项目地址:https://github.com/memmachine


图片

本地部署后就可以清晰看到数据库中的信息。


图片

最后,聊一下自己的一点感受。

到了 2025 年,大家应该都有个共识:卷基础大模型已经是神仙打架,普通开发者很难插手了;但AI应用层,却是遍地开花。

Manus的爆火只是一个缩影,它让我们看到了垂直场景下 Agent 的巨大潜力。

我相信,未来在法律、医疗、教育等各个垂直领域,一定会有越来越多解决具体痛点的超级应用涌现出来。

而在大家去挖掘这些垂直场景的路上,MemMachine 提供了一块现成的记忆基石

作为开源项目,它或许还需要打磨,但它最大的价值在于帮我们省去了从零构建底层记忆架构的繁琐工作。

有了它,我们可以不必把时间浪费在重复造轮子上,而是把宝贵的精力,全部聚焦在如何打磨业务逻辑、如何解决具体的业务痛点上。

毕竟,在应用爆发的时代,谁能更快的跑通业务,可能就抓住了最好的机会。