免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

拆解 OpenClaw 记忆机制:当记忆不再是数据库,而是用户可读的文件

发布日期:2026-02-14 22:06:57 浏览次数: 1541
作者:恰香的AI产品观

微信搜一搜,关注“恰香的AI产品观”

推荐语

OpenClaw 用本地 Markdown 文件重构 AI 记忆机制,让 AI 真正成为你的长期工作伙伴。

核心内容:
1. Context 与 Memory 的本质区别及其在 AI 交互中的作用
2. OpenClaw 的四块信息积木组装机制解析
3. 本地 Markdown 文件带来的三大产品价值:透明、可编辑、可迁移

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

聊得热火朝天,隔天关掉窗口再打开,AI 就把你忘得一干二净。这种聊完即焚的体验,让 AI 很难成为真正的长期助理。

我们都期待 AI 能像个长期同事:记得你的偏好,记得上周的项目背景,记得做过的决策。

AI 的记忆并不是玄学,它其实是产品设计 + 工程机制的组合。最近大火的OpenClaw,就是一个很好的例子。

今天我们试着拆解 OpenClaw 的记忆机制,看看它是如何用本地 Markdown 文件来解决这个难题的。


01. 先讲清楚两个概念:Context vs Memory

在讨论 AI 记忆时,容易混淆两个概念。先厘清一下:

Context(上下文)

把它理解为“短期工作台”。

它是与AI交互的单次请求中,模型能“直接看到”的所有信息。

特点:临时、有限、昂贵。你的 Prompt 窗口多大,它就只能装多少。一旦窗口关了,或者字数超了,信息就丢了。

Memory(长期记忆)

它是“档案室”。

它是那些跨会话、跨天保存的信息资产。

特点:持久、可增长、可检索。它不直接在模型眼前,但随时可以去查。

使用一款AI产品,考察“它记不记得住”,本质上是召回链路的体验设计,即能不能在需要的时候,准确地从“档案室”(Memory)里抽出对的那张纸,放到“工作台”(Context)上。


02. 把黑盒变白盒:模型每次到底“看到了什么”?

OpenClaw 的每一次对话,都是一条精密组装的信息流水线。

当你向它发出一个指令,OpenClaw 在后台其实组装了四块积木喂给模型:

  • System Prompt(系统指令):定义了它的人格、底线和核心规则。
  • Project Context(项目/工作区上下文):这是 OpenClaw 的特色(也就是那堆 Markdown 文件),告诉它当前项目的全貌。
  • Conversation History(对话历史):除了聊天记录,还包含工具调用痕迹,以及为了省 Token 做的多轮压缩摘要。
  • Current Message(当前输入):用户刚刚发的那条指令。

以上四块积木,就是 OpenClaw 的输入组装器。在每一次对话中,模型都会看到这四块内容,然后生成更符合当前上下文的回复。


03. 记忆放在哪:把“记忆”产品化成可管理资产

OpenClaw 没有把记忆藏在云端数据库里,而是直接放在了你的工作区目录下。

它的记忆形态,就是本地可读可写的 Markdown 文件。

这种设计带来了三个明显的产品价值:

  • 透明(Transparent):用户能直接打开文件,看见 AI 到底给自己记了什么。
  • 可编辑(Editable):记错了?你可以像改 Word 文档一样直接去改。觉得乱了?你可以手动整理。
  • 可迁移(Portable):你的记忆就是几个.md文件。复制到另一台电脑,甚至发给同事,那个 AI 就瞬间拥有了同样的“脑子”。

在 OpenClaw 的实践中,这种记忆被分成了两层:

  • Layer 1(流水账):类似memory/2026-02-02.md的每日增量日志。
  • Layer 2(精华库):类似MEMORY.md的长期归纳摘要。
~/clawd/├── MEMORY.md              - Layer 2: Long-term curated knowledge└── memory/    ├── 2026-01-26.md      - Layer 1: Today's notes    ├── 2026-01-25.md      - Yesterday's notes    ├── 2026-01-24.md      - ...and so on    └── ...

把“记忆”从一个隐式的功能(Hidden Feature),变成了一个显式的资产(Explicit Asset)。可控性带来了信任感。


04. 记忆怎么“用起来”:检索 → 取回 → 回填

光存下来没用,关键是怎么用。OpenClaw 的记忆调用链路,类似人类查资料的过程:

第一步:检索(memory_search)

当你要问个事,AI 先去“档案室”里翻目录。它会根据阈值(相似度多少才算相关)和数量上限(比如只看前 5 条),找出最相关的片段。

第二步:读取(memory_get)

找到了线索后,它会按图索骥,读取具体文件的具体段落。

第三步:写入/更新

它不需要专门的“写入”工具。因为它能读写文件,所以“写记忆” = “编辑文件”。这让它的记忆维护能力和通用的文件编辑能力复用了。

长期记忆的关键不仅仅是“存”,而是在正确的时机(Trigger),把对的片段(Top-K)拉回到 Context 里。


05. 为什么它能“越聊越懂你”:索引与检索的工程流水线

为什么你不需要说关键词,它也能懂你的意思?因为整个记忆的处理过程是一条标准流水线:

1. 监听(Watch):随时盯着文件变动(监视 MEMORY.md + memory//*.md),一定要检测到“有新东西”才开始动。

2. 切片(Chunking):把长文章切成小块。为什么要切?因为太长了检索不准,太短了意思不完整。这里有个overlap(重叠)参数,就像切藕一样,切断了还得连着点丝,保证语义连贯。

3. 向量化(Embedding):把这些切片扔给 Embedding 模型,变成一串数字(向量)。

4. 本地存储:存在一个本地的 SQLite 文件里。这里存了切片内容、向量数据、关键词索引。

5. 混合检索(Hybrid Search):这是OpenClaw的检索核心。

    ·语义检索(向量搜索):召回“意思相近”的内容。(搜“水果”能找到“苹果”)

    ·关键词检索(BM25搜索):补漏人名、ID、日期这种硬指标。

    ·加权融合:把两者的结果按权重(语义0.7 : 关键词0.3)合并。


06. 多 Agent / 多工作区:为什么“隔离”是高级体验

你肯定不希望写代码的 AI 突然跟你聊起昨天写的菜谱。

OpenClaw 的设计目标很明确:不同任务/身份的记忆互不污染。

物理隔离:每个 Agent 绑定独立的工作区和索引文件。

逻辑分域:

这是信息边界的设计。本质是为了降低误召回(幻觉)的风险,防止跨域串话。


07. 设计AI产品的启示

最后,抛开技术细节,这套机制能给所有设计 AI 产品的人带来什么启示?

长期记忆是套组合拳:它 = 存储形态 + 索引机制 + 召回策略。

把记忆资产化:让用户看见、能改、能带走。“可控性”是 AI 时代最稀缺的奢侈品。

决胜在召回:真正的体验差异点,不在于你存了多少,而在于你能不能在该出现的时候,默认且稳定地把它找出来。


参考资料:

1. https://x.com/manthanguptaa/status/2015780646770323543

2. https://github.com/openclaw/openclaw

3.https://deepwiki.com/openclaw/openclaw/7-memory-system




    53AI,企业落地大模型首选服务商

    产品:场景落地咨询+大模型应用平台+行业解决方案

    承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

    联系我们

    售前咨询
    186 6662 7370
    预约演示
    185 8882 0121

    微信扫码

    添加专属顾问

    回到顶部

    加载中...

    扫码咨询