2026年4月23日 周四晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Anthropic自己承认了:1M上下文是个伪命题,上下文的锅得自己背!

发布日期:2026-04-17 21:09:34 浏览次数: 1516
作者:算法狗

微信搜一搜,关注“算法狗”

推荐语

Claude官方揭秘:1M上下文窗口并非万能解药,五个按钮才是提升对话质量的关键!

核心内容:
1. 长上下文对话的致命缺陷:性能随token数线性衰减
2. 用户常见错误:过度依赖Continue按钮导致对话质量下降
3. 官方提供的五个会话管理工具及其正确使用方法

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

昨天,claude 发布了一条博客

翻译过来就是

使用 Claude Code:会话管理与 100 万上下文窗口

在 Claude Code 中,你如何管理会话、上下文与上下文压缩,对最终效果的影响远超预期。本文为一份实用指南,帮你在每一步都做出恰当选择。

在我们经常使用claude过程中,我们会发现一个现象,当你跟claude聊了半小时,前20分钟你jiao的它还是个天才,后20分钟它突然变成了一个没脑子的。

因为:刚才确认过三遍的需求,它忘了;你反复纠正过的格式,它继续犯;甚至连你十分钟前刚给它的数据,它都能睁着眼睛说瞎话。

你以为是自己prompt没写好。

Anthropic的Claude Code核心开发者明确过:是你自己的使用方式有问题。,我勒个去,反正,横竖都是我的错呗!

大部分人选择有问题

官方甩出一张图,一句话把真相说清楚了:

他们任认为:每一次AI输出完毕,都不是一个结束,而是一个五选一的分支决策点。

但大部分的人,永远只会点那个默认跳出来的、看起来最省事的选项:Continue。

剩下的四个按钮,绝大多数人甚至从来没碰过,也不知道它们是干嘛的。

这就好比你在一个岔路口,面前有五条路,其中四条分别写着“回头”、“清空背包”、“轻装前进”、“找人帮忙”,剩下那条写着“继续往前冲”。而你的选择永远是:继续往前冲,哪怕前面是沼泽。

然后你还抱怨路不好走。

长上下文的真相:越大越笨,越聊越蠢

官方这次非常诚实地说了一句打脸整个行业的话:1M上下文窗口根本解决不了问题。

为什么?

因为长上下文的性能会随着token数线性衰减。

翻译成人话:对话越长,模型越笨。注意力越分散,旧内容像垃圾一样堆积,干扰越来越严重。到最后,它会彻底失忆并且胡说八道,连自己三句话前刚说过什么都不认。

这不是你prompt的问题,是它的脑子已经转不动了。

因为从attention来看的话,对话越久,有效信息密度越低,模型输出的质量越差。当时有人半信半疑。现在官方实锤了。

五个按钮,把你的成功率从10%拉到90%

这次并不是推出了什么黑科技,而是把选择权交还给了用户。简单说,就是让用户来背呗

没有什么技巧,就是五个简单的选项,但每一个都在教你一件事:主动管理,而不是被动累积。

  • Continue:继续对话,在当前会话中发送下一条消息
  • /rewind (esc esc):回退指令,跳回到之前某条消息,从该位置重新尝试
  • /clear:清空会话,开启全新会话,通常会基于你刚梳理的要点继续
  • Compact:精简上下文,对当前会话内容进行总结,并在总结基础上继续对话
  • SubAgents:子代理模式,将下一部分工作委派给一个拥有独立干净上下文的子代理,仅将其执行结果回传合并

有人说得好:“我不想用compact,它删得太多了。我想要它精准删掉那些没用的工具调用输出。”

这是大大的实话。目前的compact粒度确实太粗,属于“全量压缩”,压缩后会丢失掉很多的消息,有兴趣的小伙伴可以看我之前写的上下文压缩的文章,会有新的发发现。

还有一点,你可以不用compact,用/clear + 手动提炼。慢一点但是效果是绝对大大的精准。

行业的信号:别再卷窗口大小了

过去两年,我们可以发现,所有AI公司在卷什么?

对,就是上下文窗口。 1M、2M、4M、8M……好像谁的数字大谁就厉害。

现在Anthropic的结论其实是:别卷了,没用。

窗口再大,如果你不会管理,最后还是会崩掉的,就是效果很差的。

这相当于直接给这场军备竞赛泼了一盆冷水。真正的竞争,已经从 “能装多少” 变成了 “能管好多少”。

这不只是AI的事,是你自己的事

我始终认为,这套东西根本不止适用于AI。

它就是一套完美的个人认知操作系统运行手册。

我们的大脑,就是一个有限上下文的模型:

Context Rot = 认知过载和信息焦虑。事情越多,脑子越乱,决策质量越差。

Rewind = 及时止损。不要在错误的方向上继续投入。

Compact = 知识压缩。把厚书读薄,把经验提炼成原则。

Clear = 主动遗忘。扔掉没用的草稿、过时的计划、消耗注意力的垃圾。

Subagent = 分工授权。不要什么事都自己干,能外包的外包,能拒绝的拒绝。

人和人的差距,是这样指数级拉开的

很多人都有一个疑问,同样用AI,为什么有人能跑完一个复杂项目,有人聊20句话就开始跟失忆的AI反复拉扯?

答案现在很明确了:

一类使用路径:一条对话聊到底,从不清理,从不回退,从不压缩。AI变笨了就抱怨,然后开新对话,从头再来。循环往复。

另一类使用路径:在每一个节点主动做决策——该退的退,该清的清,该压缩的压缩,该分发的分发。会话永远轻装上阵,永远保持最高性能。

这个差距,会随着时间指数级放大。

相关的建议

打开Claude Code(或者其他支持类似功能的长上下文AI工具),输入/usage,看看你自己的token使用曲线。

找到你的Context Rot阈值——就是那个“再往后聊模型就开始明显变笨”的临界点。

比如我自己,到300k token左右,模型就开始犯蠢。以后每次快到这个数,就主动/compact或者/clear

别等它傻了再补救。那时候已经晚了。

最后问下大家伙:

你上一次在对话中点“Continue”之外的选项,是什么时候?

如果答案是“从来没有”或者“想不起来了”,那你现在知道问题出在哪儿了。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询