2026年4月10日 周五晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Karpathy又双叒叕发新概念了,这次我替你找到了那个产品

发布日期:2026-04-07 11:52:32 浏览次数: 1586
作者:花叔

微信搜一搜,关注“花叔”

推荐语

Karpathy用AI构建个人知识库的新思路,现在网易有道宝库帮你一键实现,无需代码也能深度理解资料。

核心内容:
1. Karpathy的AI知识库工作流及其局限
2. 有道宝库如何实现零门槛知识管理
3. 真实案例测试:谢赛宁与AMI Labs的深度调研

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

上周Andrej Karpathy发了一条推,1500万人看了。

图片

又是Andrej。又是新概念。

这次他说自己最近把大量的LLM算力从写代码转向了「建知识库」,把论文、文章、代码仓库等原始资料扔进一个目录,让LLM自动编译成一个markdown wiki,然后在这个wiki上做问答、生成幻灯片、做数据可视化。他的wiki已经积累了100多篇文章、40万字,可以回答各种复杂的研究问题。

最后他说了一句:

I think there is room here for an incredible new product instead of a hacky collection of scripts.(这个方向应该有一个真正的产品,而不是一堆拼凑的脚本。)

我转发之后,有不少人来找我问:「能不能出个教程?」「Obsidian怎么配?」「一定要用Claude Code吗,用xxx行不行?」

说实话我自己用Claude Code搭类似的工作流不难,但每次有人问我「怎么搭」,都卡在同一个地方:Karpathy的方案需要命令行、需要写脚本、需要配Obsidian插件,每一步都在劝退不会vibe coding的人。尤其是,问我这些问题的,恰恰都是不会写代码,也对Vibe Coding工具不熟悉的人,学生、白领、内容创作者。

这让我想起之前在即刻写过的一件事:我收藏了2000篇文章,再也没打开过。评论区最多人说的一句话是「一样」。微信收藏、浏览器书签、笔记软件、稍后读App,到处散落着落灰的内容。不是没时间读,而是收藏的那一刻,大脑已经产生了「我处理过了」的错觉。

「看过」和「理解」之间隔着一道沟。Karpathy用代码填了这道沟,但大多数人需要的是一个产品,不是一套脚本。

所以看到网易有道新出的产品--有道宝库的时候,我挺在意的。它做的事情和Karpathy那套工作流几乎一样,把资料扔进去,AI自动理解、整理、关联,然后你可以追问、生成思维导图、做PPT、生成播客——但它是一个打开浏览器就能用的产品,不是一堆脚本。

之前测过有道龙虾,那是帮你干活的AI Agent。这次宝库的定位不一样,更像一个思考伙伴,帮你把散落的资料变成可以深度理解的知识。

我决定按Karpathy的工作流框架,拿有道宝库跑一遍自己的真实调研场景,看看一个产品化的方案到底能做到什么程度。

我选的调研主题是谢赛宁和AMI Labs。

最近张小珺做了一期将近7小时的马拉松访谈,采访的是谢赛宁。他是迄今为止对我来说认知冲击最大的一期播客。谢赛宁和Yann LeCun共同创立了AMI Labs,刚完成10.3亿美元的种子轮融资,估值35亿美元,仅25人,连产品都还没有。访谈里聊到了世界模型、两次拒绝Ilya、和何恺明的友谊、以及「硅谷被LLM催眠了」这个判断。这是一个信息量极大、涉及人物关系和技术争论的复杂话题,正好用来测试知识库的真实深度。

先把资料扔进去

Karpathy的第一步是把原始资料索引到一个raw/目录,用Obsidian Web Clipper把网页转成markdown,再用脚本下载相关图片。

有道宝库的做法更直接:创建一个知识库,把各种格式的资料直接导入。

图片

我把这几份资料扔了进去:张小珺对谢赛宁的访谈网页链接、AMI Labs融资报道(36kr)、以及谢赛宁的4篇论文PDF——DiT、Cambrian-1、Solaris,加上LeCun的世界模型路线图。

有道宝库支持的来源挺杂的,PDF、Word、网页链接都是基本操作。还有个我没预期到的功能:添加资料弹窗里有个「学术」搜索入口,直接在里面搜论文,搜「transformer DeepSeek」能出来58条结果,标注了引用数和期刊,直接加入知识库,连下载PDF这步都省了。

图片

一共导入了6份资料,覆盖中文访谈、英文论文、新闻报道三种格式,导入都很顺。

然后开始追问

Karpathy说他的wiki积累到一定规模之后,可以对着它问各种复杂问题,LLM会自己去翻资料、研究、给出答案。

进入知识库,有道宝库自动给出了一份内容总结,把6份资料横跨的主题梳理了出来,技术路径、人物关系、世界模型的核心主张,都覆盖到了,判断基本准确。

然后我开始追问。

我问的第一个问题是:「谢赛宁是怎么从DiT发展到Solaris的,这之间的关系是什么?」

图片

回答拉出了DiT到Cambrian再到Solaris的技术演进路径,每句话后面跟着引用角标,对应具体是哪篇论文的哪个段落。

这里有个体验和Karpathy的方案根本不同:有道宝库的每句回答都跟着引用标注,点一下就跳到原文的具体段落。


Karpathy的wiki是LLM编译的markdown文件,他需要自己去验证内容对不对。有道宝库把「溯源」这件事产品化了,不需要你自己翻原文对照,点一下引用标注就能看到出处。

这和用ChatGPT等对话式AI显然很不一样。那些工具是拿整个互联网的知识回答你,你不知道它是从哪得出的结论。有道宝库的逻辑不同,它只看你上传的资料,每句话都能溯源。可以大幅度避免LLM的幻觉问题。

不是说它绝对不会理解错,而是它把证据链摆在你面前了。对不对你自己判断,证据就在手边。

做调研、写文章的时候,这种确定感很重要。

让资料长出新形状

光靠问答还不够。真正的知识内化,是把零散信息重组成你自己能用的结构。

Karpathy说他不喜欢在终端里看纯文字结果,而是让LLM生成幻灯片、图表,然后在Obsidian里查看。有道宝库在这块走得更远——脑图、信息图、PPT、播客,每种输出格式都有自定义要求的入口,不是盲目生成,而是按你的方向重组。

先试思维导图。

图片

我在自定义要求里写了具体方向:以谢赛宁为中心,梳理人际关系网络和技术演进路径,重点突出人物关系的戏剧性。生成结果标题是「谢赛宁AI人脉技术路径与AMI Labs世界模型愿景」,三级结构,把LeCun、何恺明、Ilya的关系,以及MoCo到MAE到DiT到Cambrian到Solaris的路径都拉出来了。

图片

这是基于多份资料的跨文档整合,不是某一篇文章的复述。生成完可以直接编辑,AI梳理的结构不一定完全准确,但给了一个可以改的起点,比从空白开始顺多了。

再试信息图。

图片

四个模块把DiT、Cambrian-1、Solaris、AMI Labs的脉络串了起来,内容基本准确。每个模块的核心论点有道宝库抓得不错,比如Cambrian-1那条「打破语言偏见,对抗当前AI过度依赖语言先验的局限」,这是原论文的核心主张,提炼准确。中文渲染这块体感明显,一张图里能有这么多中文字符,但却没有乱码的,这个细节算是解决了很大的痛点。

还可以直接变成播客

Karpathy的工作流里有幻灯片、有图表,但没有音频。

对内容创作者来说,「听」是一种很不一样的内化方式。很多东西看的时候以为懂了,但耳朵在听的时候脑子才真的在处理。如果能有一期专门讲你正在研究的话题的播客,知识就不只是躺在文档里。

NotebookLM两年前靠播客功能出圈。

2024年9月上线「Audio Overview」,当月用户增长300%,Q4环比增长120%,移动端月活最终达到800万。这个数字证明了一件事:AI播客这个形式,需求是真实的。

但中国用户留下来的不多。不是功能没用,是摩擦太大:需要科学上网,中文发音错误频发,公众号、B站这些中文内容源也不太支持。

有道宝库也做了播客功能,有一个细节我觉得有意思:有音色选择。

图片

双人模式,主持人A可以选「贵气千金」「智性精英」「冷艳乐手」,主持人B可以选「好朋男声」「理工学霸」「磁性低音炮」,还有简洁/深入两档时长,加自定义要求。

我在自定义要求里写了方向:从谢赛宁的人物故事切入,聊DiT怎么变成Sora的基石,再引出世界模型和LLM路线之争,要像两个真正关心这件事的人在深夜聊天,而不是念PPT。

生成出来的播客,对话结构清晰,切中的是真正有意思的点。两次拒绝Ilya这段,两个主持人有来有回,能感觉出话题的张力。中文发音准确,没有多音字读错。

暂时无法在飞书文档外展示此内容

当然比不上真人播客的人味。但它能做到一件之前做不到的事:你把资料扔进去,它替你把资料讲给你听——这件事的价值,不在于它有多完美,在于它真的存在。

它比同类多一张牌

测完这些功能之后,我想到一件事:有道做知识库,比其他人多一张牌。

有道词典和有道翻译用了这么多年,这次有道宝库把这条链路打通了。你在有道翻译里处理过的文章,可以直接导入宝库继续研究。这个闭环是「翻译→导入→深度理解」,别家没有。

实测过一个场景:把谢赛宁的DiT英文论文扔进去,让有道宝库做文档翻译。它不只翻了文字,连论文里的图表、公式截图也做了翻译处理。读一篇密集的英文ML论文,这种带图片翻译的中文版本和原版对照,比单纯让AI总结要扎实得多——你能看到作者的原始表达,同时不被语言本身挡住理解。

对于每天要处理大量英文资料的研究者和创作者来说,这个生态加法是实质性的。

还有个彩蛋

测试快结束的时候,我在产品官网发现了一个东西——有道宝库有CLI。哈哈,这还挺赶现在优先给AGENT做产品的潮流的。

图片

我拿这个CLI跑了一个实验:把本地积累的12篇DeepSeek论文扔进去,让它生成一期「听完能搞清楚DeepSeek这两年在研究什么」的播客。不需要打开浏览器,命令行上传文件,等几分钟,一期16MB的双人AI播客出来了。本地批量文件的知识内化,是纯网页产品做不到的。

图片

网页端给普通用户用,CLI给想要把它嵌入自己工作流的人用。两个受众都照顾到了,这个设计挺聪明的。

Karpathy要的那个产品,还没出现

回到Karpathy那句话:「这个方向应该有一个真正的产品,而不是一堆拼凑的脚本。」

说实话,那个产品还没出现。

Karpathy描述的不只是「上传资料然后问答」,他描述的是一套基于Agentic AI的知识管理体系:模型能主动梳理知识图谱、发现遗漏、跨库推理、在自己的权重里真正「记住」你研究过的东西。这件事,现有的产品——无论是NotebookLM还是有道宝库——都还没做到。底层模型还在快速演进,真正能「主动帮你管知识」的产品,可能要再等一两个大版本。

但这不是说现在的工具没用。

对后台那些问「不会写代码怎么办」的朋友来说,有道宝库已经是目前门槛最低、能立刻上手的选项之一。 资料导入、有据可查的深度问答、多模态知识重组,核心环节都产品化了。而且在播客、中文支持、词典翻译打通这些维度上,它做到了Karpathy的脚本方案做不到的事。

Karpathy那条推下面,点赞最高的回复是:「So basically you're describing NotebookLM?」

不完全是。NotebookLM在国内访问不便,对中文内容源的支持程度和生成的中文信息展示的准确性也常常出错,毕竟不是给中国用户准备的,能力。对中文用户来说,这个更接近现阶段的可用答案。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询