免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Claude 这个更新,让模型能力提升10%+!

发布日期:2026-03-15 12:38:22 浏览次数: 1575
作者:花叔

微信搜一搜,关注“花叔”

推荐语

Claude 上下文长度提升至100万,实际可用空间暴增8倍,彻底解决长对话信息丢失问题!

核心内容:
1. 200K到1M上下文升级的实际可用空间对比分析
2. 长上下文对模型推理能力的本质提升
3. 多场景测试数据验证性能优势

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

大多数人低估了昨天 Claude开放 100 万上下文长度的更新,从 200K 到 1M,上下文长度其实不是提升到原来的 5 倍,而是 7 倍、8 倍、9 倍。

因为原来 200K 的上下文里有很大一部分会被系统提示词、记忆、skills,以及预留的 compact buffer 所占据。所以你真正可使用的项目上下文长度其实就 100K 出头,现在在 1M 上下文里,项目可用的上下文提升到了 900K 左右。

我打开 /context 截了两张图:

Sonnet 4.6(200K)——打开对话就用掉了 25%

Opus 4.6(1M)——同样的 skill 配置,用掉的比例缩到 4%

Free space 的对比:

· Sonnet 4.6(200K):free space 118k(58.8%)

· Opus 4.6(1M):free space 923k(92.3%)

923 ÷ 118 ≈ 7.8 倍。名义上 5 倍,实际可用空间接近 8 倍。对于 skill 配置越重的用户,这个数字越夸张——这就是我说它等效于 6-10 倍的原因。

被 compact 折磨过的人都懂这是什么感觉。对话太长触发 compact,有时候顺,有时候直接失败,对话就卡死了。重开,手动粘贴上下文,每次都有信息损耗,然后模型在同一个地方再犯一遍你以为解决了的错。


上下文不是容量,是草稿纸

费曼不相信自己说不清楚的东西。他的标准是:把所有符号去掉还能讲清楚,才算真理解。上下文限制限制的不只是能放进去多少内容。

你正在解一道复杂的数学题,做到一半,我把你的草稿纸拿走了。你变笨了吗?没有。但你能解出那道题吗?也不能了。

问题出在草稿纸,不在你的大脑。模型的上下文就是它的草稿纸。

记忆不只是存储,是推理的原材料。推导结论,前提和中间步骤得记在某个地方,才能一步步往下走。每推一步就忘一步,算力再猛也推不出来。上下文窗口就是模型的有效记忆范围,超出去只能猜。

所以模型出错很多时候不是不够聪明,是看不见:

代码开发:bug 的根源在三个文件之前引入的变量定义。那个定义超出上下文了,模型看不见,只能猜。

长文写作:写到后半段,前面某个论点超出窗口了。模型开始隐隐复述已经说过的东西,或者前后逻辑出现细微矛盾。你改稿时才发现,时间没了。

多轮对话:第 3 轮定的约束到第 30 轮消失了。建议越来越奇怪,你说不出哪里不对,就是感觉「它没在听」。

上下文越小,这类残缺越多,判断越差。


数据:上下文越长,Claude 和其他模型差距越大

数据也能说明这件事。Anthropic 用 MRCR v2(8-needle)测了一组长上下文检索,任务是在超长文本里同时找多个藏起来的关键信息。

模型
256K
1M
Claude Opus 4.6 91.9% 78.3%
Claude Sonnet 4.6 90.6% 65.1%
GPT-5.4
79.3%†
36.6%
Gemini 3.1 Pro
59.1%
25.9%

† GPT-5.4 的 256K 数据为 128K–256K 区间均值

上下文越长,差距越大。 256K 时几个模型还挤在一起,拉到 1M,GPT-5.4 掉到 36.6%,Gemini 3.1 Pro 掉到 25.9%,Claude Opus 4.6 还在 78.3%。不是 Claude 在短上下文里更强——是拉长之后别人扛不住,Claude 还在。

Claude Code 的 PM Boris Cherny 也在推上确认了一件事:

Opus 4.6 1M 现在是 Claude Code Max、Team、Enterprise 的默认模型,不用改任何设置。Pro 版和 Sonnet 用 /extra-usage 手动开启。

Anthropic 还引用了个客户案例:用上 1M 上下文之后,自动压缩事件减少了 15%。这跟我自己的体感对得上。我自己估,对长期迭代的复杂项目,这个价值至少等于模型能力提升 10%-20%。


API也取消溢价了

900K token 的请求和 9K token,现在一个价:

服务商
长上下文怎么收费
Anthropic Claude ✓ 无溢价,和短上下文一个价
OpenAI GPT-5.4
超过 272K 输入收 2× 单价,输出 1.5×

OpenAI 收长度税,Anthropic 现在不收了。终于,上下文成了top模型的标配。理论上长上下文也确实不该是高级功能,本身就该是个模型基础能力。

Claude Code Max 用户(100 刀/月那档)更简单,1M 上下文直接就有,不用加参数,不用多付钱。


顺带还有两件事

更新 #1

图片 / PDF 上限 100 → 600

以前一堆 PDF 要手动拆批,现在一次喂进去。我每次写文章要整理十几张截图和参考资料,这个直接省了好几步。

更新 #2

Adaptive Thinking 转正式版

模型自己判断什么时候慢想、什么时候直接答,不用你手动配置推理深度。少了一层不必要的决策。


Context,Not Control.

AI 工具的进步有两种:模型变聪明,或者把已有的能力真正释放出来。1M 上下文 GA 是后者。但对于长期项目、复杂开发、以及被 compact 搞崩过的人,实际影响不比前者小。

费曼说过,背下来一个公式,和能自己从头推导出来,是两回事,重量完全不同。给模型喂答案,和给它喂能推导出答案的所有信息,也是两回事。后者更难,但结果更靠谱。

上下文窗口,决定了你能给它多少推导所需的信息。之前太小,你得做减法——剪掉那些「可能有用但放不进去」的东西。每次剪,都是在赌这段信息不重要。赌对了没感觉,赌错了,模型就在某个你看不见的地方犯了一个你找不出原因的错。

现在,你完全可以肆无忌惮去给模型投喂任何你觉得它该知道的信息了。

👇这个管理理念不止是在Netflix和字节,在大模型的使用和管理上也越来越有效了

Context,Not Control.

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询