微信扫码
添加专属顾问
我要投稿
Andrej Karpathy,这位 OpenAI 创始成员、特斯拉前 AI 总监、斯坦福大学 CS231n 讲师,最近在 GPU MODE 研讨会上发表了一场主题为 “llm.c” 的演讲,再次语出惊人:LLM 时代,Python/PyTorch 之类的软件抽象都将成为历史! ?
llm.c 是 Karpathy 用 C 语言(外加一点点 C++)从零开始写的一个 Transformer 训练框架
事情是这样的:一年前,Karpathy 想在他的视频系列(Karpathy非常喜欢分享AI技术)中添加一个关于 LLM 训练的视频,于是他开始用 PyTorch 写代码。结果,他被 PyTorch 的各种抽象概念搞得晕头转向,什么设备、数据类型、编译、分布式…… 各种问题层出不穷,代码出了 bug 都找不到原因! ?
Karpathy 被折磨得不行,一怒之下决定: “老子自己写一个!” 于是,llm.c 就诞生了!
抛弃 PyTorch 的抽象,直面底层: Karpathy 决定抛弃 PyTorch 提供的各种便捷功能,例如自动微分、设备管理、数据类型转换等等,直接用 C 语言操作数组和指针
逐层移植,确保正确性: Karpathy 首先用 Python 写出每一层的 forward 和 backward 函数,然后将其移植到 C 语言,并与 PyTorch 的实现进行比较,确保结果一致
预先规划内存,提高效率: llm.c 会在程序开始时一次性分配所有内存,避免了动态内存分配的开销,从而提高了运行效率
单文件,无依赖,极致简洁: llm.c 只有一个 C 文件,没有任何外部依赖,编译和运行速度极快,甚至可以在非常低端的硬件上运行
GPU 加速,性能更上一层楼: Karpathy 将 llm.c 移植到了 GPU 上,并使用 cuBLAS 和 cuDNN 等库进行了优化,性能比 PyTorch 还要好!
分布式训练,支持多 GPU 和多节点: llm.c 还支持多 GPU 和多节点训练,可以处理更大规模的数据和模型
开源协作,吸引各路大神: llm.c 采用 MIT 开源协议,吸引了来自世界各地的开发者贡献代码和优化方案
在 8 张 H100 GPU 的单节点上,llm.c 可以在 24 小时内完成 GPT-2 (16 亿参数) 的训练,成本约为 672 美元
与 PyTorch 相比,llm.c 的内存占用减少了 29%,训练速度提高了 19%,编译和运行速度也更快
Karpathy 认为, Python、PyTorch 等软件抽象的存在,是因为人类的知识、智力和注意力都是有限的。
随着 AI 能力的不断提升,LLM 或许可以直接为任何应用生成定制的二进制文件(就像 llm.c 一样),从而打破并重构所有软件抽象!
这意味着,未来的软件开发模式可能会发生根本性的改变! 程序员将不再需要编写 Python 或 C++ 代码,而是直接用 LLM 来生成可执行文件! ?
Karpathy 的 llm.c 项目,或许就是 AI 驱动软件开发的未来! ?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-04
Agent 越用越聪明?AgentScope Java 在线训练插件来了!
2026-02-03
OpenClaw之后,我们离能规模化落地的Agent还差什么?
2026-01-30
Oxygen 9N-LLM生成式推荐训练框架
2026-01-29
自然·通讯:如何挖掘复杂系统中的三元交互
2026-01-29
微调已死?LoRA革新
2026-01-19
1GB 显存即可部署:腾讯 HY-MT1.5 的模型蒸馏与量化策略解析
2026-01-18
【GitHub高星】AI Research Skills:一键赋予AI“博士级”科研能力,74项硬核技能库开源!
2026-01-10
前Mata GenAI研究员田渊栋的年终总结:关于未来AI的思考
2025-11-21
2025-12-04
2026-01-04
2026-01-02
2025-11-20
2025-11-22
2026-01-01
2025-11-19
2025-12-21
2025-11-23
2026-02-03
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17