微信扫码
添加专属顾问
我要投稿
快手Klear-Reasoner以GPPO算法突破8B模型极限,在数学与代码推理领域实现双效强化,公开训练细节助力开源社区。 核心内容: 1. Klear-Reasoner在AIME和LiveCodeBench等基准测试中登顶8B模型榜首 2. 创新GPPO算法解决传统clip方法的两大隐藏问题 3. 完整公开训练pipeline与模型细节,推动开源推理模型发展
在大语言模型的竞争中,数学与代码推理能力已经成为最硬核的“分水岭”。从 OpenAI 最早将 RLHF 引入大模型训练,到 DeepSeek 提出 GRPO 算法,我们见证了强化学习在推理模型领域的巨大潜力。然而,想要复现这些顶尖成果,并不只是“多喂点数据、跑几轮训练”这么简单。现实是,很多中小规模的开源推理模型,在 AIME 这样的高难数学竞赛题、或 LiveCodeBench 这样的复杂代码评测中,依然与闭源 SOTA 存在明显差距。
最近,快手 Klear 语言大模型团队推出了全新的 Klear-Reasoner 模型,基于 Qwen3-8B-Base 打造,在数学与代码的多个权威基准测试中达到同规模模型的 SOTA 水平,并完整公开了训练细节与全流程 pipeline。
论文标题:Klear-Reasoner: Advancing Reasoning Capability via Gradient-Preserving Clipping Policy Optimization
论文链接:https://arxiv.org/pdf/2508.07629
Hugging Face地址:https://huggingface.co/Suu/Klear-Reasoner-8B
GitHub地址:https://github.com/suu990901/KlearReasoner/tree/main
Klear-Reasoner 在 AIME2024、AIME2025、LiveCodeBench V5 和 V6 等基准测试中,不仅全面超越同规模的强力开源模型(包括 DeepSeek 蒸馏版 DeepSeek-R1-0528-8B),更是在 AIME2024 上取得了 90.5%、AIME2025 上取得了 83.2% 的惊人成绩,直接登顶 8B 模型榜首。
在PPO和GRPO等常用的策略优化方法中,clip是控制训练稳定性的重要手段,它通过限制策略更新幅度,避免模型一步走得太远而导致崩溃。然而,Klear团队在实践中发现,这种做法有两个隐藏问题:
1. 高熵token被裁剪:当高熵token(通常对应推理过程中的关键探索步骤)的重要性采样比例超过上限时,它们的梯度会被直接丢弃。这会限制模型的探索能力,使模型很快变得保守,不再尝试新的思路。
2. 负样本延迟收敛:当次优轨迹的重要性采样比例低于下限时,
梯度同样被丢弃掉。这样,模型需要多次重复犯同样的错误,才能积累足够信号去修正行为,显著拖慢收敛速度。
换句话说,clip 机制在保护稳定性的同时,也切断了模型获取最有价值学习信号的通道,模型变得保守,不敢尝试新路径,遇到错误也修正迟缓。
GPPO 的核心思想很直接:不丢弃任何梯度,并且对其进行温和回传。它通过stop gradient操作,将clip操作与梯度反向传播解耦,在保持 clip 机制稳定性的同时,让被截断的 token 依然参与反向传播,其优化目标如下:
值得注意的是,数值上始终等于 1,因此前向计算保持不变。由于GPPO将梯度传播与裁剪约束解耦,所以反向计算过程与标准clip方法不同。通过分析GPPO梯度表达式,可以进一步明确其回传的梯度和标准clip方法的不同之处:
GPPO让被clip的token依然参与反向传播。对于原本被clip的高熵token(正优势且),梯度被保留,并约束在水平,既能保留 探索能力,又避免过大更新引发不稳定;对于原本被clip的负样本token(负优势且<),梯度同样被保留,并限制在的幅度,加快错误修正。
如下图1,在与现有方法的对比中(包括DAPO的clip-higher以及MiniMax-M1的CISPO方法),GPPO在数学和代码任务上都表现出优势。DAPO法调整clip上限,但无法解决本质问题,还是会存在高熵token被clip的情况;相比于CISPO方法,GPPO继承了PPO悲观更新的策略,有助于其保持更清晰的优化信号,并促进更稳定的策略训练。
图1: 数学强化学习训练中GPPO、GRPO(带Clip Higher策略)与CISPO的对比
两种方法均基于早期长链思维微调检查点(序列长度32K tokens)进行训练。对于GRPO,我们采用DAPO论文推荐的Clip-Higher策略 = 0.28。
除了提出GPPO算法外,Klear团队在论文中对训练流程的多个关键环节进行了深入实验与分析,揭示了长思维链推理模型成功背后的几个核心要素:
SFT阶段:质量优先,数据可靠性比数量更重要
表1: 高质量数学数据Top-K子集组合对监督微调(SFT)性能的影响
在每个Top-K配置下。加粗数值表示对应Top-K配置下的最佳性能表现。
表2: 高质量代码数据Top-K子集组合对监督微调(SFT)性能的影响
在每个Top-K配置下。加粗数值表示对应Top-K配置下的最佳性能表现。
SFT阶段:高难样本容错反而能促进学习
RL阶段:软奖励优于硬奖励
RL阶段:代码数据测试用例过滤
图3: 在LiveCodeBench V5基准(avg@4指标)上,使用过滤与未过滤数据的代码强化学习性能对Filter表示使用过滤数据的强化学习结果,而w/o Filter代表使用原始未过滤数据集的结果。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-30
大模型的“思维链”(Chain-of-Thought):AI 是怎么一步步“推理”的
2025-08-30
Agentic AI与WorkFlow的相互成就
2025-08-29
刚刚,xAI 发布 Grok Code Fast 1 编程模型,快、便宜、免费
2025-08-29
大模型时代有了自己的「价值高速公路」
2025-08-29
A I智能革命——上下文工程新突破
2025-08-29
知识库检索准不准,关键看模型选没选对!一份评测指南请收好
2025-08-29
我如何用Prompt工程将大模型调教成风控专家
2025-08-29
度小满金融大模型技术创新与应用探索
2025-08-21
2025-06-21
2025-08-21
2025-08-19
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-06-15
2025-08-28
2025-08-28
2025-08-28
2025-08-28
2025-08-27
2025-08-26
2025-08-25
2025-08-25