微信扫码
添加专属顾问
我要投稿
360与北大联手推出TinyR1-32B,仅5%参数量却实现推理与安全双突破,性能直追行业标杆! 核心内容: 1. TinyR1-32B在推理能力上超越同类模型,安全对齐表现优异 2. 创新的Control Token技术解决安全与能力平衡难题 3. 开源轻量化模型降低部署门槛,支持多场景应用
大模型一定要“又大又笨重”吗?
9月23日,360&北大-大模型联合实验室给出了一个新答案:TinyR1-32B。
这个模型只有同类超大模型5%的参数量,却在推理和安全对齐上实现了“双突破”,部分能力甚至已经追平或超越DeepSeek R1-0528等明星大模型。
推理能力
在数学、科学、代码等任务上大幅超越 Qwen3-32B,整体性能达到 DeepSeek R1-0528 的93%。
通用对齐
在 IFEval 测评中拿到89.2分,明显高于 DeepSeek R1 的80.9分。
安全对齐
Constructive Safety 得分接近90分,不仅能“拒答”,还能提供建设性的正向引导。
一句话总结:小体量,却能做到“大模型级”的思考与安全。
02
背后的秘密:Control Token 技术
长期以来,大模型在 helpful(有用)和 harmless(安全)之间像跷跷板:提升安全性往往会牺牲能力。
TinyR1 系列提出的 Control Token 方法,通过在训练数据里加入“控制标记”,让模型能根据任务类型灵活切换模式。
这意味着:推理、对齐、安全性不再互相拖后腿,而能并行提升。
除了 TinyR1-32B,实验室还同步开源了 TinyR1-Safety-8B。
通过单阶段训练整合多类安全行为
在推理时可用指令动态激活
甚至支持区域化安全策略(如 policy:en-US、policy:zh-CN),让模型能感知不同文化背景下的安全需求
这意味着企业或开发者可以轻松部署一个“小而精”的安全对齐模型,适配多种应用场景。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-21
编程选GPT-5.4,还是GPT-5.3-Codex?
2026-03-21
AI Coding前端实践后的复盘总结
2026-03-21
OpenAI 首席科学家:Codex 只是雏形,我们要造的是「全自动 AI 研究员」
2026-03-21
谷歌Stitch「氛围设计」干崩Figma 8.8%股价:十年经验,败给巨头一次更新(附实测)
2026-03-21
为什么 CLI 比 MCP 更适合 LLM
2026-03-21
渐进式披露(Progressive Disclosure):Agent 从 Demo 到企业级落地的 “救命架构”
2026-03-21
AI 编程工具怎么选?Codex 和 Claude Code 的本质区别
2026-03-21
Karpathy 最新播客:我得了 AI 精神病、App 将消失、Agent 将碾压实验室
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2025-12-30
2026-01-14
2026-01-21
2026-03-21
2026-03-20
2026-03-19
2026-03-19
2026-03-19
2026-03-18
2026-03-17
2026-03-17