微信扫码
添加专属顾问
我要投稿
字节开源大模型Seed-OSS-36B,性能超越Qwen,支持512K长上下文和智能体任务,开发者友好且商用免费。 核心内容: 1. Seed-OSS-36B的核心特性:长上下文、推理优化、智能体能力 2. 独特技术亮点:动态思考预算控制与原生512K上下文支持 3. 开源策略:Apache-2.0商用许可及研究友好设计
昨晚,字节 Seed 团队开源首个 LLM:Seed-OSS-36B。该模型具备长上下文、推理、智能体和通用能力,开发者友好,而且还主要针对国际化场景进行了优化。尽管仅用 12T 数据训练,依然在多项主流基准上表现优异,并以 Apache-2.0 许可证开放商用。
Seed-OSS 为Dense模型,模型参数量为36B,架构设计上采用了 RoPE、GQA 注意力机制、RMSNorm 和 SwiGLU 激活函数,具体模型配置如下所示:
Seed-OSS-36B模型的主要特性如下:
Seed-OSS-36B一大特色是支持用户设置thinking budget参数来灵活指定模型的思考预算,和谷歌的Gemini 2.5 Flash一样。下图展示了在不同任务下,随着思考预算变化的性能曲线。对于较简单的任务(如 IFEval),模型的链式思维(CoT)较短,分数在思考预算增加时会出现波动;而在更具挑战性的任务(如 AIME 和 LiveCodeBench)中,模型的 CoT 更长,分数会随着思考预算的增加而提升。
下面是一个将思考预算设置为 512 的示例:在推理过程中,模型会周期性地进行自我反思,以估算已消耗和剩余的预算,并在预算耗尽或推理完成时给出最终回答:
<seed:think>Got it, let's try to solve this problem step by step. The problem says ... ...<seed:cot_budget_reflect>I have used 129 tokens, and there are 383 tokens remaining for use.</seed:cot_budget_reflect>Using the power rule, ... ...<seed:cot_budget_reflect>I have used 258 tokens, and there are 254 tokens remaining for use.</seed:cot_budget_reflect>Alternatively, remember that ... ...<seed:cot_budget_reflect>I have used 393 tokens, and there are 119 tokens remaining for use.</seed:cot_budget_reflect>Because if ... ...<seed:cot_budget_reflect>I have exhausted my token budget, and now I will start answering the question.</seed:cot_budget_reflect></seed:think>To solve the problem, we start by using the properties of logarithms to simplify the given equations: (full answer omitted).
如果未设置思维预算(默认模式),Seed-OSS 将以无限长度启动思维过程。若指定了思维预算,建议优先选择 512 的整数倍(如 512、1K、2K、4K、8K 或 16K),因为模型在这些区间上经过了大量训练。当思维预算设为 0 时,模型会直接输出回答,这里建议将低于 512 的预算统一设为该值。
Seed-OSS-36B共包括三个模型:Seed-OSS-36B-Base、Seed-OSS-36B-Base-woSyn 和 Seed-OSS-36B-Instruct。前两个为预训练模型,其中Seed-OSS-36B-Base为在预训练中引入合成数据的版本,而Seed-OSS-36B-Base-woSyn则是不含合成数据训练的版本。
Seed-OSS-36B-Base-woSyn在主流基准测试上超过了Qwen3-30B-A3B-Base-2507和Qwen2.5-32B-Base,而加入合成数据的Seed-OSS-36B-Base在性能上有进一步的提升:
后训练版本Seed-OSS-36B-Instruct也在主流基准测试上大部分优于OpenAI的OSS-20B、阿里的Qwen3-30B-A3B-Thinking-2507和Qwen3-32B,以及谷歌的Gemma3-27B:
当前 Seed-OSS 已经提了PR给transformers库,你可以安装制定的transformers库来使用这个模型:
# pip3 install -r requirements.txt# pip install git+ssh://[email protected]/Fazziekey/transformers.git@seed-ossfrom transformers import AutoModelForCausalLM, AutoTokenizerimport osimport remodel_name_or_path = "ByteDance-Seed/Seed-OSS-36B-Instruct"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, device_map="auto") # You may want to use bfloat16 and/or move to GPU heremessages = [{"role": "user", "content": "How to make pasta?"},]tokenized_chat = tokenizer.apply_chat_template(messages,tokenize=True,add_generation_prompt=True,return_tensors="pt",thinking_budget=512 # control the thinking budget)outputs = model.generate(tokenized_chat.to(model.device), max_new_tokens=2048)output_text = tokenizer.decode(outputs[0])
感觉Seed-OSS-36B应该只是字节加入开源大模型社区的开始,后面应该有更多的开源模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-30
开源可信MCP,AICC机密计算新升级!
2025-10-30
OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b
2025-10-29
刚刚,OpenAI 再次开源!安全分类模型 gpt-oss-safeguard 准确率超越 GPT-5
2025-10-29
AI本地知识库+智能体系列:手把手教你本地部署 n8n,一键实现自动采集+智能处理!
2025-10-29
n8n如何调用最近爆火的deepseek OCR?
2025-10-29
OpenAI终于快要上市了,也直面了这23个灵魂拷问。
2025-10-29
保姆级教程:我用Coze干掉了最烦的周报
2025-10-29
维基百科,终结了!马斯克开源版上线,用AI重写「真相」
2025-08-20
2025-09-07
2025-08-05
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-08-06
2025-10-20
2025-08-22
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07