2026年4月16日 周五晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

当所有人都不写代码了,谁来看懂代码?

发布日期:2026-04-13 14:22:04 浏览次数: 1532
作者:进化三部曲

微信搜一搜,关注“进化三部曲”

推荐语

AI编程时代已至,人类角色从编码者转变为架构师与监督者——但谁来确保AI代码的正确性?

核心内容:
1. AI自主编程已成行业常态,人类工程师转向环境设计与意图定义
2. 新角色"驾驭工程师"面临的审查困境与技能挑战
3. 斯坦福揭示的AI自检系统盲点与行业潜在风险

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家
深度观察
当所有人都不写代码了
谁来看懂代码?

AI自主编程时代 · 斯坦福警告 · 思维能力重构
进化三部曲
2026年4月13日

Claude Code创建者:过去30天,259个PR、4万行代码——每一行都是AI写的。OpenAI:3名工程师、100万行代码——零人工编码。斯坦福法学院:当失败发生时,没人知道为什么,也没人有能力修复。

一个已经发生的事实

2026年4月,讨论"程序员要不要用AI写代码"已经过时了。这不是一个选择题,是一个既成事实。

Claude Code的创建者Boris Cherny公开分享了他的数据:过去30天,259个PR、497次提交、4万行新增代码——每一行都是AI写的。他说自己即将完全放弃VS Code,转向纯AI编排模式。

OpenAI更激进。3名工程师、5个月时间,通过Codex Agent完成了约100万行代码的内部产品。零人工编码。工程师的角色不是写代码,而是设计agent运行环境、编写意图规范、管理反馈循环。

我们自己的实践也印证了这一点。Opus 4.5推出之后,我们公司不再允许程序员打开IDE写代码。所有开发工作由AI agent完成,测试也是AI自己跑。程序员的工作变成了:定义需求、审查结果、处理AI搞不定的边界情况。

IDE正在变成上一个时代的遗物,就像打字机一样。

新角色:从写代码到管代码

当人类不再写代码,"程序员"这个词的含义就彻底变了。OpenAI把新角色叫做"Harness Engineering"(驾驭工程)——人类工程师是架构师,不是编码者。

设计环境:代码库的可读性、工具的完备性、观测层的完善程度——这些决定了AI agent能走多远。瓶颈不是AI能力,而是环境质量。

定义意图:用自然语言精确描述"我要什么"。这比写代码更难——因为你必须同时理解业务逻辑和技术约束。

审查产出:AI写完了,你要判断:对不对?安全不安全?符不符合架构?

这就是悖论所在:你不需要写代码了,但你比以往任何时候都更需要看懂代码。

斯坦福的警告:谁来看守看守者?

2026年2月,斯坦福法学院CodeX项目发表了一篇文章:"Built by Agents, Tested by Agents, Trusted by Whom?"(代理构建、代理测试、谁来信任?)

文章分析了StrongDM公司的"软件工厂"模式——代理写代码、代理测试、人类只设计规范和监控分数。没有人类审查任何一行代码。

Goodhart定律陷阱:代理优化的是测试分数,不是真实用户需求。StrongDM遇到过代理直接写return true来通过所有测试——测试全绿,但代码什么都没做。

循环验证问题:写代码的AI和测试代码的AI是同类系统,共享同样的盲点。就像让一个人自己批改自己的作业。

技能萎缩:当人类停止读写代码,出现故障时将无人能理解原因,更无法修复。

斯坦福的结论:最深层的问题不是AI写的代码质量好坏,而是失败时没人知道为什么,也没人有能力修复——因为读代码的技能已经消失了。

写代码的AI和测试代码的AI,共享同样的盲点

计算器的教训,这次不一样

1970年代计算器进课堂时,教育工作者担心学生丧失心算能力。结果:心算确实退化了,但数学思维没有——因为计算器只替代了"计算",没有替代"思考"。

AI编程不同。它不只是替代了"写代码"这个动作,它同时替代了"思考代码"这个过程。

当你用计算器算3×7,你知道答案应该是21左右——你有基本的数感来验证。但当AI生成了一个500行的微服务,你怎么验证它是对的?你甚至不知道"对"长什么样。

Anthropic的研究证实了这个担忧:使用AI辅助的初级开发者,测验得分比手写代码的低17个百分点。更可怕的是:METR研究发现,使用AI工具的开发者实际慢了19%,但自认为快了20%

而且别忘了,大模型本身就是一个"天才与白痴的混合体"——上限经常超过博士,下限有时不如幼儿。它可以写出优雅的架构,也可以写出看起来完美但逻辑全错的代码。如果你没有"数感",你根本分不清它什么时候是天才、什么时候是白痴。

这不是"心算退化"的问题。这是"数感消失"的问题。

古法编程的人,到底强在哪?

强在"心智模型"。没有AI的时代,你写的每一行代码都经过自己的大脑。你对整个系统有完整的内部表征——知道数据怎么流动、改了这里那里会怎样。这个心智模型,是你判断AI产出是否正确的基础。

强在"调试直觉"。代码出了问题,古法程序员能凭直觉缩小范围。这种直觉来自无数次亲手调试的经验。AI时代的开发者没有这个经验积累。

强在"对复杂性的敬畏"。亲手写过大型系统的人,知道复杂性是怎么失控的。而从未亲手写过代码的人,容易低估复杂性——因为AI让一切看起来都很容易。

古法编程培养的不是"写代码的能力",而是"理解代码的能力"。前者已经不需要了,后者比以往任何时候都更需要。

AI时代的四层思维能力

第一层:系统思维(最基础)。理解组件之间怎么通信、数据怎么流动、故障怎么传播。OpenAI的经验:环境质量决定了agent能走多远。设计好的环境,需要系统思维。

第二层:意图表达能力(新核心技能)。精确表达意图比写代码更难——你必须同时理解业务逻辑和技术约束,然后用自然语言把两者桥接起来。

第三层:批判性审查能力(安全底线)。45%的AI生成代码含安全漏洞。你需要知道该在哪里质疑、质疑什么。如果没有人能审查,系统就是在裸奔。

第四层:故障诊断能力(最稀缺)。当系统崩溃时——而系统一定会崩溃——谁来诊断?这需要那种"古法编程"培养出来的深度理解力。

这四层能力,从下到上越来越稀缺,也越来越值钱。

人类与AI的协作:不是替代,是桥接

思维能力应该在何时建立?

既然公司不会给你时间练基本功,那AI时代的思维能力应该在什么时候建立?

有一个有趣的类比:大模型的训练过程,和人类的教育过程高度同构。

预训练 = 大量阅读(小学)——海量输入,建立对世界的基本认知

SFT监督微调 = 大量做题(中学)——在有监督的环境下,学会规范化思维

强化学习 = 专家引导的开放课题(大学)——在真实问题中,通过反馈迭代提升判断力

按这个框架,AI时代的思维能力建立也应该分阶段:

小学/中学(预训练):建立"数感"。不是学编程语法,而是理解逻辑、因果、系统是怎么运作的。数学、物理、甚至搭积木和拆玩具,都是在建立底层认知。

大学(微调):建立"代码感"。通过计算机科学基础课理解数据结构、算法、操作系统原理。完全可以用AI辅助学习,但核心是建立心智模型。

工作后(强化学习):直接进入AI编排模式。在实战中通过和AI协作来持续强化判断力。

思维能力的建立窗口在学校,不在公司。

但现实是什么?我们身处AI时代,却用工业时代的方法培养农业时代需要的人才。学校还在教"怎么写for循环",而不是"怎么理解一个系统"。考试还在考"记住了多少语法",而不是"能不能定义一个好问题"。

AI时代,没有人是老司机,都是新人。教育体系需要重新定义"基本功"——不是写代码的基本功,而是理解系统、定义问题、和AI协作的基本功。

对新人:在学校阶段就建立心智模型。进入公司后直接用AI编排模式工作,但保持好奇心——遇到AI生成的代码,多问一句"为什么这么写"。

对团队:保留至少一个"能读懂全部代码"的人。95分以上的人依然重要——当AI产出80分的代码时,你需要有人能把它提到95分。

对教育:计算机科学教育不应该教"怎么写代码",应该教"怎么理解系统"。代码只是培养思维能力的手段,不是目的。

失控,然后进化

这个问题本身可能就问错了。

2025年11月18日,Cloudflare全球服务中断。程序员们想把系统bug日志扔给ChatGPT分析——结果发现ChatGPT也用了Cloudflare,打不开了。想用AI修bug,但AI本身就是bug的一部分。这个死循环,是对"完全依赖云端AI"最讽刺的注脚。

但这个故事还有另一面。我最近在本地台式机上运行了最新的Gemma 4和Qwen 3.5——完全本地化,不需要网络,不依赖任何云端服务。它们可以分析代码、解释逻辑、定位bug,速度和质量都已经够用了。

大模型像生命一样,正在渗透到每一个环境。不只是云端的API,而是你的台式机、笔记本、甚至未来你的手机里,都会有一个能读懂代码的AI。智能无处不在。

所以"谁来看懂代码"的答案,不是"最后一个古法程序员",而是人类+无处不在的AI。新的工具会带来新的环境,新的环境会达成新的平衡。

凯文·凯利在《失控》中说过:所有有生命的系统看起来都不稳定。蜂群看起来混乱,但能找到最优路径。AI编程的生态也是如此——现在看起来很"失控",但这种不稳定,恰恰是新平衡正在形成的信号。

但有一个前提:人类不能完全退出这个系统。AI是放大器,不是替代器。你需要有足够的认知基础,才能和AI进行有效的对话。真正需要培养的不是"写代码的能力",而是"和AI协作理解系统的能力"。这是AI时代的新素养。

工具在不断变化,人性的变化则是缓慢的。我们不用担心。每一次技术革命都会打破旧的平衡,然后建立新的平衡。从印刷术到计算器,从互联网到AI——人类从来没有因为工具太强而退化,只是换了一种方式进化。

这一次也一样。

进化三部曲 · 张震

参考资料

     斯坦福法学院CodeX《Built by Agents, Tested by Agents, Trusted by Whom?》(2026年2月)
     OpenAI《Harness Engineering: Zero Manual Code》(2026年)
     Boris Cherny《The End of Code-First Development》(2026年)
     Anthropic/METR《AI辅助开发者技能影响研究》(2026年)
     Fortune《In the Age of Vibe Coding, Trust Is the Real Bottleneck》(2026年4月)   

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询