微信扫码
添加专属顾问
我要投稿
DeepSeek-V4低调发布却实力惊人,中国开源大模型首次与全球顶尖闭源产品正面较量。核心内容: 1. V4在七大维度评测中取得2项第一、3项第二的亮眼成绩 2. 底层架构从CUDA迁移到华为昇腾芯片的战略转型内幕 3. 团队"不诱于誉,不恐于诽"的技术坚守哲学
百万上下文,从「顶级配置」变成「水电煤」。
2026年4月24日,一个普通的周五,DeepSeek终于把V4放出来了。
没有盛大的发布会,没有几个人出来直播,没有倒计时预热,没有接受任何媒体采访。官网悄悄更新,App悄悄上线,API同步更新,开源模型直接挂到了HuggingFace上。唯一称得上宣传的,就是发了一篇公众号文章。
说实话,过去这半年,关于DeepSeek-V4跳票的传言、「DeepSeek是不是已经被超越了」的讨论、「梁文锋到底在干什么」的质疑,在中文和英文AI圈来来回回跑了好几轮。他们一次都没有回应,然后这周五放出来了。
首先说一下能力上的情况。他们在文章里放了一个全球顶级AI大模型的多维度能力对比图,从七个维度把DeepSeek和现在最顶尖的三个大模型的高阶版本做了对比,这三个分别是Claude Opus 4.6、GPT-5.4和Gemini 3.1 Pro。
这三个模型现在是全球闭源模型中最顶尖的,一个月订阅费用,最便宜的是20美金,最贵的是200美金。而DeepSeek作为一个开源免费产品,如果拿自己跟其他开源产品做比较,或者拿自己跟这三家模型的免费版本比,其实也都非常合理。
但从这个敢于对比的勇气来说,就非常值得鼓励。这就好像在足球世界里,找竞争对手直接瞄准了巴西、阿根廷。
当然,成绩也非常厉害,评测一共有七个方面,其中第一个模块是知识与推理,第二个模块是智能体能力。这就相当于一个学生有七门学科,DeepSeek拿到了2个第一、3个第二、1个第三和1个第四。
作为一款中国的免费开源模型,这个成绩已经非常喜人了,相当于跟几个顶级高手打得不相上下。他们发布的这篇公众号,也没有太多的官话和套话,全是技术参数和如何调用。
不过在这篇官方文章的结尾,引用了一句荀子的话,吸引了我:
不诱于誉,不恐于诽,率道而行,端然正己。
这句话啥意思呢?这其实是战国时期,荀子在自己的《非十二子》里提到的,后来作为历代对君子人格的精准定义,主张君子应该向内求。简单解释就是:君子要不被赞誉诱惑,不被诽谤吓倒,按自己认定的路往前走,端正自己。
说实话,这句话放在其他公司身上,我会不屑一顾,觉得挺装的。但放到DeepSeek身上,还真觉得挺合适。
接下来,这个模型能不能打,肯定还会有更多的评测出来。而大模型这场战争是一个长期的战争,了解背后的一些事情,要比关注简单的参数有意思。
今天,我想带你看看这次发布背后,真正重要的6件事。
很多人以为DeepSeek-V4跳票是因为研发遇到了瓶颈,模型做不出来。事实不是这样的。
V4迟到的真正原因,是DeepSeek做了一个极其艰难的决定:把整个底层架构,从英伟达的CUDA生态迁移到华为的昇腾芯片上。
全球绝大多数AI模型的训练,都运行在英伟达的芯片上,而CUDA是英伟达配套的开发环境,就像一套专用的操作系统。整个AI行业过去十几年都在这套系统上积累代码、工具、生态,已经形成了一条几乎无法绕开的护城河。
这是英伟达真正的壁垒,不只是芯片本身。
DeepSeek决定绕开它,这不是一个轻松的选择。据业内人士透露,2025年年中,DeepSeek在用华为昇腾芯片训练V4的过程中,遭遇了训练中途崩溃、稳定性不足、芯片间通信速度未达预期等一系列问题。
英伟达的CEO黄仁勋在一档播客里说,如果DeepSeek在华为上首发,对美国而言将是“a horrible outcome”,意思是“一个可怕的结果”。能让经历过大风大浪的黄仁勋说出这样的话,就可以知道这个迁移有多重要。
如今,DeepSeek已然做到了这一步。对黄仁勋和英伟达来说,他们担心的肯定不是某一款芯片的销量,毕竟这对于英伟达这个AI基建帝国来说,无论金额还是芯片数量上都不会占比太高。
但这个突破的关键价值在于,「开源模型必须以英伟达芯片作为基建」这条行业铁律被打破了。我觉得这就是V4迟到15个月的最大原因。
如果你一直在用DeepSeek,或者很关注他们的进展,可能还记得2025年下半年,有过一次DeepSeek-V3.2-Exp的更新。当时外界的反应很冷淡,跑分和上一个版本几乎没什么变化,很多人觉得DeepSeek就是原地踏步。
但那次更新,悄悄引入了一个叫DSA(DeepSeek Sparse Attention,稀疏注意力机制)的东西。当时没有人特别关注,因为技术细节枯燥,跑分又没炸裂提升,所以只有一些技术类的文章提了一下。
而这次DeepSeek-V4官方公告里说的「全新注意力机制、在token维度进行压缩、大幅降低计算和显存需求」,DSA就是这套机制的核心组成部分。换句话说,那次被大家忽视的更新,其实是V4的地基工程。
你看,很多时候,真正重要的动作,在发生的当下并不显眼。我们很容易盯着跑分榜单焦虑,但其实可能人家在铺地基。
此前,量产可用的百万token上下文还是谷歌Gemini的独家王牌。其他主流模型,大多支持12万到20万token。
DeepSeek这次直接宣布:从今天起,百万上下文是所有官方服务的标配。不是旗舰版才有,是所有版本都有,而且开源。
一百万是什么概念?《三体》三部曲加起来近百万字。你可以把整套书直接扔进去,问它任何问题。或者,你手里有几百页的合同、财务报告、法律文件,直接传进去,让它帮你找关键条款、总结核心内容。以前这件事要花你几个小时,现在几秒钟。
更重要的是,这件事背后有一个规律值得注意:AI行业每隔一段时间,就会有一项「只有顶级产品才有的能力」,突然变成人人都能用的标配。
两年前是联网搜索,一年前是图片理解,现在是百万上下文。我们现在看到的顶级模型的付费功能,到明年,肯定普通人都能用到了。
官方文章里有一句话:目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型,使用体验优于Claude Sonnet 4.5,交付质量接近Claude Opus 4.6非思考模式。
大家千万别小看「接近」这个词,因为Claude在写代码方面一直是断崖式领先,连谷歌和OpenAI内部都有人偷偷在用它写代码。所以DeepSeek能接近行业顶级学霸水平,本身就往前迈了很大一步。
从第三方数据来看也能印证这一点。在竞技编程测评Codeforces上,DeepSeek-V4的得分超过了GPT-5.4;在软件工程测试SWE-Verified上,和Claude Opus 4.6几乎打平。
这两项测评,是目前业内公认最能反映模型真实代码能力的标准之一。
那么,这对普通人意味着什么?我觉得有三个最实用的场景:
这是最直接的。比如自动整理Excel、定时发邮件、做一个简单的个人主页。以前要么自己学编程,要么花钱找人写。现在你可以自己发出指令,让DeepSeek帮你写写试试。
不过也别指望一次就能满意,多半要来回改几轮,但这个过程本身就是在摸清楚它能做什么、不能做什么。
还有一种情况很常见:很多同学一遇到代码报错就很慌。其实看到报错,说明电脑还有救。你只要把报错信息复制进去,AI就能告诉你哪里出了问题、怎么改,不需要你懂任何代码逻辑。
如果你是开发者,市面上主流Agent工具,比如Claude Code、OpenClaw、OpenCode、CodeBuddy等,DeepSeek-V4都做了专项适配和优化,可以直接替换进去用。
先说结论:普通用户日常在网页端或者App端使用完全免费,而且短期内大概率会继续免费。
原因在于DeepSeek背后的「金主」幻方量化,是中国最头部的量化对冲基金之一,提供了充足的资金和算力支持。对现在的DeepSeek来说,让更多人用起来、把生态做大,比从普通用户身上收月租费更重要。
而且真正的赚钱方式是B端,向需要大规模调用AI的企业收API费用。举例来说,各类软件企业想要将AI能力嵌入自身产品,就需要付费调用DeepSeek的商用接口。我看了下定价,DeepSeek-V4-Pro的调用成本大约是Claude Opus 4.6的七分之一、GPT-5.4的四分之一。
对企业来说,用几分之一的价格拿到接近顶级的性能,这笔账很好算。不过因为这个版本刚放出来,我们Get笔记还没有用上,等我们完成自己的场景实测后,有什么信息会再来跟大家分享。
这个细节是我在资料里看到的,觉得挺有意思的。
过去这一年,北大的学生发现,DeepSeek的HR开始频繁出没在北大中文系的宿舍楼里。他们专门去招中文系的学生,目的是做人文领域的数据标注。
简单说,就是给AI喂「正确答案」。比如让它读一段古诗,判断这段文字的情绪是悲伤还是旷达;让它看一篇散文,分辨哪些表达是有文采的,哪些是平淡的。这些判断,机器做不了,需要真正懂文学、懂语感的人来做。
DeepSeek以前是出了名的「理科做题机器」,数学、代码、逻辑推理样样在线;但如果让它聊聊情感、写写有温度的文字,感觉总差一口气。现在它开始补这块短板了。
这件事背后有一个更大的信号:AI的竞争,正在从「谁更聪明」转向「谁更像人」。
推理能力、数学能力、代码能力,这些东西可以靠算力和数据堆出来,各家差距越来越小。但情商、语言的质感、对人类情感的理解,这些东西更难复制,更难追赶。
而且招的是中文系的学生,从这点上看,DeepSeek的方向还是扎根国内市场,后续在中文深度理解、本土化创作这些维度的表现,非常值得期待。
过去这半年,DeepSeek面对的压力不只是外部的质疑。他们的内部也不平静:R1的核心作者被字节挖走,LLM核心作者被腾讯挖走,V2核心作者被小米千万年薪挖走。与此同时,公司核心员工的期权没有市场化定价,留人越来越难。
所以你看,他们不是一帆风顺的。有技术攻坚的煎熬,有人才流失的压力,有外界「是不是已经凉了」的质疑,还有迟迟没有回应的舆论真空。
然后在这个周五,他们默默地把最新的V4模型放出来了。不是「我们很厉害所以可以淡定」,而是「我们选择先做,再说话」。
说实话,这种风格在今天的AI圈子里非常罕见。大多数公司的发布节奏是:先发布会造势,再讲故事融资,然后慢慢交付产品。DeepSeek的节奏是反过来的,先把东西做出来,开源,上线,然后发布公告,就完了。
我不知道DeepSeek最终会走到哪里。它面前还有很多没解决的问题:世界知识储备仍然逊于Gemini,超长文本的细粒度检索还不是最强,核心人才流失之后能不能守住那种「不急不躁」的研发文化,也是个问题。
但至少到今天,它做到了荀子说的那句话。
📡 直播预告
很多同学在新工具出现时,不仅想学习怎么用,还想知道到底选哪个好。
所以,我准备在视频号「快刀青衣学AI」上,开辟一个新的直播栏目,帮大家直播评测各种AI产品。
这个评测栏目有三个特点:
需求都来自用户点单。大家呼声高的,我就去评测。
我会让AI重度参与评测过程。比如出测试题,把几个不同的AI组成评审团。
最重要的,这个评测背后不会有任何商业化行为。
第一期就来评测ChatGPT的最新生图模型,下周一晚上7点,欢迎你点击下方链接预约直播,一起参与进来。
推荐阅读
从 Midjourney 到 GPT-image-2,三年变化
案例|路歌用AI帮助货车司机,货物破损率从20%降到1.7%
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-24
OpenAI GPT-5.5 即将上线 Microsoft Foundry(国际版)
2026-04-24
一文读懂DeepSeek V4:1.6万亿参数、百万上下文、华为芯片
2026-04-24
AI编程的“作坊时代”即将终结!Google Cloud全套企业级“驾驭工程”底座,正在重构开发者的一切
2026-04-24
GPT5.5来了,最大特点解析
2026-04-24
微信9.0要来了,内置一个AI管家
2026-04-24
GPT-5.5来了!我撤回了退订ChatGPT的决定
2026-04-24
GPT-5.5 发布,详细解读
2026-04-24
GPT-5.5来了!全榜第一碾压Opus 4.7,OpenAI今夜雪耻
2026-04-15
2026-01-26
2026-03-31
2026-03-13
2026-02-14
2026-02-03
2026-02-03
2026-02-03
2026-03-17
2026-02-09
2026-04-22
2026-04-18
2026-04-13
2026-04-12
2026-04-07
2026-04-01
2026-03-31
2026-03-31