微信扫码
添加专属顾问
我要投稿
00后用开源挑战OpenAI垄断,48小时内打造免费版Chronicle,让AI记忆不再昂贵!核心内容: 1. OpenAI发布付费屏幕记忆功能Chronicle引发争议 2. 00后开发者团队48小时完成开源替代方案OpenChronicle 3. 开源项目实现三大突破:本地运行/多模型支持/记忆共享
最近,AI 圈又多了一个「48 小时开源」的故事。
4 月 20 日,OpenAI 发布了 Chronicle,带来了一个很关键的能力:AI 可以直接「看见你的屏幕」,并持续记住上下文。
这意味着什么?不只是聊天更顺了,而是交互方式变了。在写代码、改文档、调设计稿时,你不再需要向 AI 反复解释「这个」、「刚刚那个文件」或「上一步做了什么」,它自己看得到,也记得住。
当然,获得这种能力目前有一个前提:订阅。Chronicle 目前仅对 ChatGPT Pro 用户开放,每月 100 美元。
然而仅仅 48 小时后,另一条路线出现了。一群 00 后开发者组成的团队「Vida」,发布了一个开源项目:OpenChronicle。
GitHub:
他们的动机在发布推文中写得很直白:
OpenAI 的 Chronicle 指向了一个重要的未来。但 AI 的记忆,不应该被锁在 100 美元/月的付费墙之后。所以,我们把它开源了。
同样是「看屏幕 + 持续记忆」,但它做了三件更激进的事:可以完全本地运行、可以接任意模型(包括本地模型)、可以被不同 AI Agent 共享调用。
换句话说,他们不是在做一个单纯的功能替代品,而是将「AI 的眼睛和记忆」从单一产品中直接拆解出来。至此,AI 第一次拥有了可复用的「记忆层」。
OpenChronicle迅速形成话题,9小时内Posts超过2000条。
那么,这个「记忆层」具体能做什么?开发团队给了三个非常具体的用例。
1)结合上下文,理解你的指代
当 AI 缺乏持续记忆时,突然问一句「what's the bug of that?」,模型往往不知所措。但接入 OpenChronicle 后,Agent 会直接调取你当前的屏幕上下文(如 VS Code 里打开的文件、报错信息),将「that」精准解析为具体代码,带来截然不同的交互体验。
2)跨会话连续性
开发团队做了一个测试:在一个全新的对话里,让 Claude 写一个 OpenChronicle 的 logo prompt。注意,开发团队从来没有在 Claude 中提过 OpenChronicle。
没有连续记忆时,模型第一步是反问:「OpenChronicle 是什么?」;但有了 OpenChronicle,它会直接从开发者在其他软件(浏览器、飞书、VS Code)的操作中检索项目信息,然后一步给出结果。不需要解释,不需要复制粘贴上下文,对话之间不再是孤立的。
3)让 Agent 学会你的习惯并执行
这一点很微妙,但极为关键。在开发团队看来:记忆不应该只是帮助 Agent「理解你」,还应该让它「按照你的方式行动」。
比如 OpenChronicle 发现一个用户,习惯于工作用 Google Calendar,家庭用 Apple/Fantastical。当用户说:「Add dinner with my parents this Sunday.」 Agent 会自动把这个任务路由到「家庭日历」,而不是工作日历。
一个 Agent 学会你的习惯、按照你的行为模式执行任务的未来,似乎已经触手可及。
从「对话记忆」,到「工作流记忆」
与主流 AI 的 Memory 不同,OpenChronicle 会观察你正在使用的应用(IDE、Notion、Figma),读取屏幕内容(代码、文档、界面),并记录一个任务是如何一步步推进的。它记住的不是聊天,而是「你在干什么」。
这件事一旦成立,体验就会发生一个很微妙但很本质的变化:你在飞书上和团队讨论的开发方案。不用解释上下文,AI 可以直接接着你们的思路往下走;你在改第三版设计稿,AI 不只是看这一版,还知道前两版是怎么一步步改过来的。
它开始理解「过程」,而不是某一个瞬间的输入输出。它更像是一层基础设施。
OpenChronicle 不绑定特定模型或工具,Claude Code、Codex、OpenCode、Claude Desktop 等都可以一键接入,甚至连 MCP 配置都是自动生成的。
这意味着开发者不需要再为每一个 Agent 单独做一套记忆系统。不同工具之间,也第一次有机会共享同一份「用户上下文」。AI 记忆,开始变成一层可以被复用的东西。
甚至连「记忆怎么存」,都不是黑箱
OpenChronicle 没有把自己做成一个黑盒:
记忆是用 Markdown 存的
检索用的是 SQLite
结构通过 AX Tree 暴露出来
你可以读、可以改、可以迁移。
这让「AI 记忆」第一次长得有点像数据库,或者操作系统组件:不是一个功能,而是一块可以被组合的基础能力。
同时,它也选了一条很明确的路线:本地优先。你可以用本地模型总结记忆,数据完全不出设备。也可以随时暂停,随时恢复。记忆可以很强,但不一定要变成「全程监控」。
更大的变化,还在后面
如果把视角再往后拉一点,这件事就更加有趣。
过去,大多数 AI 的工作方式很简单: 你问 → 它答 → 结束。但现在开始变了。AI 会先看环境、再结合历史、再参与当前任务、然后继续留下痕迹。
交互的单位,从「一次对话」,变成了一段「持续发生的过程」。AI 不再只是被调用,而是开始「待在你的工作里」。
Chronicle 和 OpenChronicle,其实是两种很典型的选择:一种,是把「记忆」做成产品能力,放进订阅体系里;另一种,是把「记忆」拆出来,变成所有系统都能用的一层基础设施。
但真正的问题,其实不在「开源还是闭源」。而在另一件更现实的事:当 AI 可以长期记录你的行为、你的习惯、你的工作过程——这些东西,归谁?
OpenChronicle 的答案很简单:留在本地,归用户。于是,一个新的结构开始出现了:模型可以换,工具可以换,但你的「上下文」始终是连续的。
这让三件事情开始松动:
记忆的控制权,在平台还是在用户手里
记忆的边界,是被锁在应用里,还是可以流动
记忆的形态,是黑箱能力,还是数据层
如果说大模型阶段解决的是「AI 能不能理解并回答你」,那么下一阶段的核心命题将是:「AI 能否持续陪伴并参与你的世界」。而这一次,分歧已经出现。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-25
DeepSeek V4报告太详尽了!484天换代之路全公开
2026-04-24
阿里云 AI 网关支持 DeepSeek V4
2026-04-24
一手实测 DeepSeek V4,代码能力真的很强
2026-04-24
DeepSeek-V4 终于来了!1M上下文,开源模型新王登基
2026-04-24
Deepseek V4终于发布,但它留下的5道主观题还没有答案
2026-04-24
DeepSeek-V4 预览版:迈入百万上下文普惠时代
2026-04-23
DeepSeek V4发布前,罗福莉亮剑!小米最强大模型MiMo-V2.5深夜突袭
2026-04-23
腾讯开源Cube Sandbox:60毫秒冷启动的AI沙盒运行时
2026-01-30
2026-01-27
2026-01-29
2026-01-27
2026-01-28
2026-03-30
2026-01-26
2026-04-03
2026-03-23
2026-01-26
2026-04-22
2026-04-21
2026-04-15
2026-04-09
2026-04-01
2026-03-17
2026-03-13
2026-03-02