2026年4月23日 周四晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

大神 Karpathy 说破了大模型的真相:不是智力不够,是垃圾数据太多

发布日期:2026-04-20 07:56:34 浏览次数: 1531
作者:悟鸣AI

微信搜一搜,关注“悟鸣AI”

推荐语

Karpathy揭示大模型参数膨胀的真相:不是智力不足,而是数据质量太差。未来模型竞争的关键可能在于如何分离"认知"与"记忆"。

核心内容:
1. 大模型参数膨胀背后的数据质量问题
2. 分离"认知核心"与"外部记忆"的创新思路
3. 行业优化方向从规模竞争转向系统设计

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
大家好,我是悟鸣。

Karpathy 最近讲了一个很反直觉的判断:今天的大模型之所以越做越大,未必是因为“思考”本身需要这么多参数,而是因为训练数据太脏、噪声太多。

换句话说,我们现在看到的模型膨胀,未必主要是在为“智力”买单,更像是在为垃圾数据买单。

我们平时一想到互联网内容,脑子里浮现的往往是《华尔街日报》、维基百科、各种严肃文章。

可真实的预训练语料根本不是这回事。研究者从前沿实验室的训练数据里随机抽样,看到的往往是股票代码、坏掉的 HTML、垃圾信息、各种胡言乱语。

有研究估算,Llama 3 的信息压缩率只有 0.07 bits per token。
这意味着,模型对它学过的大部分内容,其实只是模模糊糊记了个影子。

所以今天我们造出上千亿、上万亿参数的模型,不一定是因为我们真的需要一个“上万亿参数的大脑”,而更像是需要一个超大规模压缩引擎,从一整条充满噪声的数据洪流里,硬挤出一点有用智能。

换句话说,模型里大量参数干的可能不是“思考工作”,而是“记忆工作”。

如果这个判断成立,那下一步就不是继续盲目堆参数,而是把“认知”和“记忆”重新分工。

Karpathy 进一步的预测是:应该把这两件事彻底拆开。

一边是“认知核心”,只保留推理、问题求解这些真正和智能有关的算法;
另一边是外部记忆,需要事实时再去查,而不是全都硬塞进模型权重里。

他的判断很激进:如果只用高质量数据训练,一个真正专注认知的核心模型,可能只需要 10 亿参数左右,就能达到相当强的智能水平。

对比一下就更刺激了。
今天的旗舰模型大概在 2000 亿到 1.8 万亿参数之间,而这其中很大一部分权重,可能只是拿来“记住”互联网上大量低质量噪声。

而且趋势已经开始往他这个方向走了。
GPT-4o 大约是 2000 亿参数级别,但整体表现已经超过最初那个 1.8 万亿参数的 GPT-4。
再看成本侧,2022 到 2024 年,达到 GPT-3.5 级别性能的推理成本下降了 280 倍,背后最主要的推动力,几乎就是模型变得更小、更干净、架构更合理。

这也解释了为什么行业的优化方向正在变化。真正值得注意的,不是“大模型不重要”,而是未来模型竞争的重点,可能不再是谁能把参数堆得更夸张,而是谁能把“认知”和“记忆”拆得更干净。

接下来真正拉开差距的,未必是参数规模本身,而是谁能把系统设计做得更聪明。

参考资料:MilkRoad AI on X https://x.com/MilkRoadAI/status/2045484064585728489

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询