微信扫码
添加专属顾问
我要投稿
DeepSeek官网悄然更新模型,支持100万tokens输入,知识截止日期延至2025年5月,性能显著提升!核心内容: 1. 新模型支持100万tokens输入,远超此前版本 2. 知识截止日期更新至2025年5月 3. 实测验证模型性能,确认非V3.2版本
就在刚才,很多人发现DeepSeek官网已经更新了模型,虽然不确定是DeepSeek-V4,但是目前可以肯定,这不是之前公布的DeepSeek-V3.2而是一个全新的模型。为此,DataLearnerAI实测正式,这个模型的确并非此前的版本。
首先,向该模型提问,询问支持的上下文和知识截止日期,得到的回复时100万tokens输入,知识截止日期是2025年5月份。
不过,此前DeepSeek从V3.1开始基本没有公布过知识截止日期,截至目前可以查询到的官方的数据是DeepSeek-V3-0324版本的回复是2024年7月份,此后的所有版本均没有正式的公告。但是,DeepSeek在2025年5月份之后发布的模型如下:
显然,如果知识截止日期是5月份的话,考虑到数据处理时间和模型训练时间,合理推测也是DeepSeek V3.1或者3.2版本了!但是,DeepSeek V3.2最新版的论文有一句话可以证明这些模型都不可能是2025年5月份的知识。
最后一个最强的证据可以证明这是不同的模型,虽然官方没有公布知识截止日期,但是官方的DeepSeek模型一直有最高的上下文长度,DeepSeek-R1和V3自从升级到0324版本之后都是128K,最新的DeepSeek-V3.2系列则是支持160K的上下文。为此,我们测试了这个官网的DeepSeek的新模型的上下文长度。它的的确确支持100万tokens的输入!
我们获取了一个《三体》全集的txt文本,在Google的AI Studio中统计,该txt包含678K左右的tokens(67万),然后我们上传到了DeepSeek官网解析,发现完全没问题!DeepSeek的回复是说它虽然不能证实自己是新模型,但是这个测试表明它就是新的模型!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-13
跳出英伟达生态:OpenAI 发布新编程模型 GPT-5.3-Codex-Spark,速度达 1000 token每秒
2026-02-13
刚刚Gemini上新模型,全球只有7人比它会编程,谷歌姚顺宇参与
2026-02-13
Agent Skills实操心得:Claude Code篇
2026-02-13
来自MiniMax M2.5的震撼 :小尺寸几乎打平opus4.6,巨便宜,巨能干活,速度巨快
2026-02-12
我给 Claude Code 加装了 MiniMax M2.5:它像“法拉利”,但更像一台工作机
2026-02-12
AgentRun 实践指南:Agent 的宝藏工具——All-In-One Sandbox
2026-02-12
Higress 已支持全新 Gateway API 及其 AI 推理扩展
2026-02-12
GLM-5 发布:从“写代码”到“写工程”的范式跃迁
2026-01-24
2026-01-10
2025-11-19
2026-01-26
2026-01-01
2025-12-09
2025-12-21
2026-01-09
2026-02-03
2026-01-09
2026-02-12
2026-02-12
2026-02-11
2026-02-11
2026-02-11
2026-02-11
2026-02-07
2026-02-04