2026年4月16日 周五晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

YC CEO把自己第二大脑系统开源了:专供OpenClaw与Hermes,全息记忆打造迷你AGI

发布日期:2026-04-11 20:38:50 浏览次数: 1545
作者:AI寒武纪

微信搜一搜,关注“AI寒武纪”

推荐语

YC总裁开源个人知识管理系统GBrain,让你的AI助手拥有持续进化的记忆能力,打造专属智能助手。

核心内容:
1. GBrain系统如何构建AI agent的知识底座
2. 知识复利效应:对话循环让AI越来越聪明
3. 实际应用场景与部署示例

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家


↑阅读之前记得关注+星标⭐️,😄,每天才能第一时间接收到更新


 

 

YC CEO 开源自己搭建OpenClaw/Hermes Agent 配置GBrain,如果你希望你的 OpenClaw 或 Hermes Agent 能够完美地记住所有 10,000 多个 markdown 文件,GBrain 可以帮到你。

 

YC总裁Garry Tan刚刚开源了他的第二大脑系统GBrain,简单来说GBrain 解决的是怎么用 AI 管理你脑子里的知识。

这套系统的核心思路是:让AI agent拥有一个持续成长的知识库,在每次回答问题前先读取它,对话结束后再写入新内容。

GBrain是什么

GBrain是一个AI agent的知识底座。它把你的会议记录、邮件、推文、日历事件、语音通话、原始想法统统汇入一个可检索的知识库,agent在每次回答前会先读取这个知识库,对话结束后再写入新信息。每一轮对话都让agent变得更聪明一些。

从安装到完整运行,约需30分钟。数据库初始化只需2秒,使用PGLite,无需任何服务器。

Garry Tan本人的部署规模:10000多个Markdown文件、3000多份人物档案、13年的日历数据、280多份会议记录、300多个原始想法。

目前支持Claude Opus 4.6和GPT-5.4 Thinking,不适合在小模型上运行。

复利效应

GBrain的核心逻辑是一个循环:

信号到来(会议、邮件、推文、链接)→ agent识别实体(人物、公司、想法)→ 先读取知识库 → 带着完整上下文回答 → 把新信息写回知识库 → 同步索引,供下次检索使用

这个循环每转一圈,知识库就积累一层。你跟某人开了个会,agent给他建一个档案页,关联到他的公司,打上相关标签。下周另一个人在完全不同的话题里提到这家公司,agent已经有了完整背景:你跟谁谈过、谈了什么、还有哪些待处理的线索。你什么都不用做。

没有这个循环,agent每次都从零开始。有了它,每次对话都在已有基础上累积。差距每天都在拉大。

GBrain能回答的问题示例:

  • • 谁同时认识Pedro和Diana,适合邀请来一起吃晚饭?(在3000多个人物档案构成的社交图谱里交叉检索)
  • • 我之前怎么看待"羞耻感和创始人表现之间的关系"?(搜索你自己的思考记录,不是搜互联网)
  • • 30分钟后要跟Jordan开会,帮我准备一下。(调取档案、共同历史、最近动态、未完事项)

这套东西是怎么来的

Garry Tan在配置自己的OpenClaw agent时,开始维护一个Markdown知识库:每人一页,每家公司一页,顶部是已整理的核心信息,底部是只追加不修改的时间线。随着持续写入,agent变得越来越有用,他也就一直在喂它。

一周内,他就建起了10000多个文件。

他的agent在他睡觉时也在运行。所谓"梦境循环":扫描每一次对话,补充缺失实体,修复断开的引用,整合记忆。他醒来,知识库比他睡前更完整。详细的定时任务配置见 https://github.com/garrytan/gbrain 中的cron schedule指南。

知识模型

GBrain里每一页都遵循"已整理事实 + 时间线"的结构:

分隔线上方是已整理事实,即你当前对某件事的最佳理解,新证据出现时会整体重写。分隔线下方是时间线,只追加,永不修改。

已整理事实是答案,时间线是证据。

搜索怎么工作

查询一个问题时,系统先用Claude Haiku做多查询扩展,把这个问题改写成多种表达方式,然后同时跑向量搜索(HNSW余弦相似度)和关键词搜索(tsvector),再用RRF融合排名,最后经过四层去重:每页只保留最优分块、余弦相似度超过0.85的合并、类型多样性上限60%、每页分块数量上限。

纯关键词搜索会漏掉概念性匹配。比如"无视常规做法"搜不到标题叫"天才的公交车票理论"的文章,但这篇文章的核心恰好就是讲这件事。纯向量搜索在精确短语上表现会变差。RRF融合两者兼顾,多查询扩展则覆盖你没想到的表达方式。

不需要服务器起步

gbrain init 默认使用PGLite,这是通过WASM运行的嵌入式Postgres 17.5。无需Supabase账号,无需Docker,无需连接字符串。一条命令就能获得完整的Postgres知识库,含pgvector、混合搜索和全部37个操作。

当知识库规模超出本地能力(1000个文件以上),gbrain migrate --to supabase 一键迁移到托管Postgres。Supabase免费层(500MB)装不下大规模知识库,需要Pro版(25美元/月,8GB)。

以7500页规模的知识库为例,总存储约750MB,其中嵌入向量134MB,HNSW索引开销270MB。初始嵌入成本约4到5美元(通过OpenAI text-embedding-3-large)。

三种使用路径

不一定非要配合OpenClaw或Hermes Agent,GBrain支持三种接入方式:

独立命令行:全局安装后直接在终端使用,gbrain query 即可检索笔记。

MCP服务器:对接Claude Code、Cursor、Windsurf等,GBrain通过stdio暴露30个MCP工具,包括get_page、put_page、search、query、add_link、traverse_graph、sync_brain等。配置方式:

{
  "mcpServers"
: {
    "gbrain"
: {
      "command"
: "gbrain",
      "args"
: ["serve"]
    }
  }
}

远程MCP服务器:部署到Supabase Edge Functions后,可以从任何设备、任何AI客户端访问,支持Claude Desktop、Perplexity、Cowork等。ChatGPT的OAuth 2.1支持尚未实现,自托管方案(Tailscale Funnel、ngrok)在文档中有说明。

数据接入

GBrain自带多种集成方案,由agent读取配置文件后向你索取API密钥并自动完成配置:

集成
用途
Voice-to-Brain
电话通话转知识库页面(需要Twilio + OpenAI Realtime)
Email-to-Brain
Gmail邮件转实体页面
X-to-Brain
推文及提及转知识库页面
Calendar-to-Brain
Google日历转可检索的每日页面
Meeting Sync
Circleback会议记录转知识库(含参会者)

技能文件

GBrain的agent行为通过技能文件定义,本质上是一批Markdown文档,告诉agent如何使用知识库,而不是把逻辑硬编码进二进制文件:

  • • ingest:如何导入会议、文档、文章,更新已整理事实,追加时间线,建立交叉引用
  • • query:三层搜索(关键词 + 向量 + 结构化),带来源引用,不知道的事直接说不知道
  • • maintain:定期健康检查,发现矛盾内容、过期已整理事实、孤立页面、失效链接
  • • enrich:从外部API补充页面内容
  • • briefing:每日简报,包含今日会议参与者背景、活跃交易及截止日期、近期变化
  • • migrate:从Obsidian、Notion、Logseq等迁移过来

工具本身不够,agent还需要行动手册:何时读取,何时写入,如何识别实体,如何把所有内容关联起来。

项目地址:

https://github.com/garrytan/gbrain ,

MIT协议开源。



--end--


最后记得⭐️我,每天都在更新:如果觉得文章还不错的话可以点赞转发推荐评论

/...@作者:你说的完全正确(YAR师)

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询