微信扫码
添加专属顾问
我要投稿
OpenCSG发布Fineweb-Edu-Chinese V2.2数据集,覆盖从预训练到监督微调全流程,为中文教育大模型提供高质量数据支持。核心内容: 1. V2.2版本新增143.7万条高质量问答对,实现从知识注入到行为对齐的全流程覆盖 2. 预训练数据达1.5T tokens,采用质量分层存储并支持课程学习策略 3. SFT数据严格基于原文生成,有效避免模型幻觉和事实错误
重磅更新
OpenCSG(开放传神)正式发布 Fineweb-Edu-Chinese V2.2 数据集,这是目前开源界少有的、覆盖从预训练(Pre-train)到监督微调(SFT)全流程的高质量中文教育数据集。
V2.2 版本标志着 Chinese Fineweb Edu 从单一的预训练语料库,进化为覆盖从知识注入到行为对齐全流程的完备数据解决方案。本次更新在 V2.1 海量预训练数据的基础上,利用 DeepSeek V3.2 强大的文本理解能力,从全网最优质的 0.1% 语料中蒸馏出 143.7 万条高质量问答对,为社区提供了一套标准化的后训练(Post-training)数据集。
在预训练数据方面,V2.2 继承了 V2.1 的优势,提供约 1.5T tokens 的高质量教育语料,按照评分等级(4-5 分、3-4 分)进行质量分层存储,支持课程学习策略。数据源整合了 CCI3、MAP-CC、OpenCSG-CC 等多个优质中文语料库,通过 OpenCSG csg-wukong-enterprise V2 评分模型进行严格筛选。
在 SFT 数据方面,V2.2 版本采用“质量至上”策略:只选取评分最高的 Top 0.1% 语料作为种子,利用 DeepSeek V3.2 的阅读理解能力,严格基于原文 Context 生成问答对。不同于自由生成的聊天数据,V2.2 的每一条数据都有确凿的原文依据,有效避免了模型幻觉和事实错误。
版本演进与特性对比
V1.0 - 概念验证
规模:~90M 条目 (300GB)
关键特性与改进:
初代 BERT 打分模型
引入MinHash 去重
数据源:CCI2, SkyPile, Tele-AI
V2.0 - 规模化扩展
规模:~188M 条目 (420B Tokens)
关键特性与改进:
升级打分器: OpenCSG csg-wukong-enterprise V2
扩展数据源:Industry2, wanjuan1.0, wudao
V2.1 - 预训练精选
规模:~1.5T Tokens
关键特性与改进:
质量分层:按分数归档 (4-5分,3-4分)
新增源:map-cc, opencsg-cc
支持课程学习
V2.2 - SFT 与对齐
规模:143.7 万条问答对
关键特性与改进:
DeepSeek V3.2 合成:基于顶级语料生成
全流程覆盖:提供数据回溯源与纯净微调版
事实锚定:回答内容严格忠实于原文
Chinese Fineweb Edu Dataset
Chinese Fineweb Edu Dataset 是一个专为中文教育领域大模型开发的高质量数据集系列。在当前的大模型研发中,高质量的中文教育语料依然是稀缺资源。通用语料如 Common Crawl 虽然规模巨大,但包含大量广告、碎片化信息和低质文本,直接用于教育模型训练会导致严重的“幻觉”和逻辑混乱。同时,业界开源的指令微调数据多集中于通用对话或代码能力,极度缺乏经过严谨筛选、具备教学逻辑的垂直领域教育问答数据。这导致许多模型虽然能说话,但无法像老师一样“传道授业”。
V2.2 的里程碑意义
为了解决上述痛点,OpenCSG团队在 V2.1 海量预训练数据的基础上,正式推出了 V2.2 SFT 增强版。不仅提供“燃料”(预训练数据),现在更提供“引擎图纸”(SFT 数据)。通过引入 DeepSeek V3.2 的高阶推理能力,将静态的教科书级文本转化为动态的、具有多轮逻辑的问答对。这标志着 Chinese Fineweb Edu 从单一的语料库,进化为覆盖 Pre-train (知识注入) 到 Post-train (行为对齐) 全流程的完备数据解决方案。
为什么需要高质量的 SFT 数据?
后训练是赋予大模型“交互能力”和“领域专精”的关键阶段。高质量的 SFT 数据能激发推理能力——仅靠预训练,模型拥有知识但不懂如何运用。通过精心设计的问答对,模型学会根据上下文进行推导、归纳和演绎。在教育场景下,准确性是红线。通过“基于原文生成”的问答对,强制模型学习“依据事实回答”,而非凭空捏造。DeepSeek V3.2 生成的数据不仅仅是简单的事实核查,更包含了“解释性”和“引导性”,模拟人类教师的思维链条。
从 1.4TB 到 143 万的精炼之路
为了确保 DeepSeek 生成出最优质的问答OpenCSG团队对输入端的“种子数据”进行了极其严苛的筛选。
OpenCSG团队沿用了 V2 版本中训练的高精度教育奖励模型,该模型基于文本的知识密度、逻辑连贯性、学术严谨度进行 0-5 分的打分。在数亿条数据中,直接截取了 Score 排名最高的 0.1%-0.5%数据作为种子,这些数据主要由 STEM 领域的原理详解、人文社科的深度解析、百科知识的概念解释以及教育材料的知识点总结构成。
将以上“金牌种子”输入 DeepSeek V3.2,利用其强大的指令遵循能力,深度阅读原始文本、识别核心考点、构建教学对话。DeepSeek 被特别提示要生成“详尽、有逻辑步骤”的回答,而非简短的 Yes/No。
V2.2 SFT 数据集详情:重塑后训练流程
本部分数据专为指令微调场景打造。
SFT 数据规格
1. Pure QA SFT【微调首选】
数据量:143.7 万条 | 磁盘占用:3.4 GB
仅包含 Instruction 和 Output,格式轻量,专注于让模型学习由 DeepSeek 提炼出的高质量回答范式。
用途:直接用于 LLaMA-Factory 等框架进行 SFT
特点:标准问答对格式,开箱即用
2. Full Context SFT【数据回溯与备份】
数据量:143.7 万条 | 磁盘占用:14.6 GB
包含了 原始种子文本 + Instruction + Output,保留完整上下文信息。
注意:不建议直接用于 SFT 训练(Token 长度过长且包含非对话内容)
用途:仅作为数据溯源使用。当模型表现异常时,可回溯至该文件检查原始知识点是否准确
数据样例与分析
以下是一个真实的数据样例,展示了 DeepSeek V3.2 生成的高质量问答对:
数据质量分析:
DeepSeek V3.2 在处理此类任务时,展现了极强的信息提取与总结能力。生成的回答不仅包含了事实,还包含了结构化的解释,这是普通短文本 SFT 数据所不具备的。
快速开始
使用 Hugging Face datasets 库即可一键加载数据集:
使用建议:
SFT 微调:推荐使用 sft_qa 分支,配合 LLaMA-Factory、Axolotl 等主流微调框架
预训练:建议采用课程学习策略,先使用 Score 4-5 的高质量数据,再逐步引入 Score 3-4 的数据扩大规模
数据溯源:当模型输出异常时,可通过 sft_context 分支回溯原始知识点,检查数据质量
OpenCSG 全球开源 AI 生态
OpenCSG 以 Chinese FineWeb Edu 为代表的高质量中文数据集体系,已被全球高校、科研机构及科技企业广泛采用,是支撑中文 NLP 研究与大模型产业落地的核心数据基础,从顶尖高校 AI 实验室到企业级生产环境,它持续为大模型预训练、指令微调与领域适配等关键环节提供可靠支撑,推动研究成果向规模化应用高效转化;在学术领域,该数据集已被 100 + 篇论文引用,多次入选 NeurIPS、ACL 等国际顶会及 Nature 子刊、JMLR 等权威期刊,成为验证中文语言模型泛化能力、知识建模效率与跨语言迁移效果的代表性基础资源。
除了 Fineweb-Edu-Chinese 系列,OpenCSG 还发布了 Cosmopedia-Chinese(合成教科书风格数据)和 Smoltalk-Chinese(多样化对话格式数据)等多个高质量中文数据集,构成了完整的 OpenCSG Chinese Corpus 语料体系。这些数据集分别针对预训练、后训练和微调等不同阶段的需求进行了专门设计和优化,为中文大语言模型的全生命周期开发提供了全方位的数据支持。
OpenCSG 通过开源数据、评分模型及完整的数据处理工具链,向社区输出可复用的数据治理方法论,持续降低高质量数据的构建与评估门槛,推动中文 AI 生态从 “模型参数竞争” 转向更加理性、可持续的 “数据基础设施建设” 阶段。
高校与研究机构
斯坦福大学(Stanford)、清华大学(Tsinghua)、中国人民大学高瓴人工智能学院、上海人工智能实验室(Shanghai AI Lab)、北京智源研究院(BAAI)、鹏城实验室、西班牙国家级超算中心(BarcelonaSupercomputingCenter)、Mozilla Data Collective等。
企业应用
英伟达(NVIDIA)、面壁智能(ModelBest)、中国移动、中国联通等。
OpenCSG 坚持“开源即文化”的理念,通过透明、共创、共享的社区文化,与全球开发者、工程师和 AI 原生企业共同构建智能体生态。无论是数据集、模型还是工具平台,OpenCSG 始终遵循 Apache 2.0 等开源协议,确保技术成果能够被广泛使用和自由创新。这种开放的态度和持续的贡献,使 OpenCSG 成为中文开源 AI 社区的重要推动者和引领者
数据地址
OpenCSG社区:https://opencsg.com/datasets/OpenCSG/Fineweb-Edu-Chinese-V2.2
hf社区:https://huggingface.co/datasets/opencsg/Fineweb-Edu-Chinese-V2.2
关于OpenCSG
OpenCSG 是全球领先的开源大模型社区平台,致力于打造开放、协同、可持续生态,AgenticOps是人工智能领域的一种AI原生方法论,由OpenCSG(开放传神)提出。AgenticOps是Agentic AI的最佳落地实践也是方法论。核心产品 CSGHub 提供模型、数据集、代码与 AI 应用的 一站式托管、协作与共享服务,具备业界领先的模型资产管理能力,支持多角色协同和高效复用。
更多推荐
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-05
【开源】12.1K Star!用 Markdown 给大模型装上“外挂大脑”,不写后端、不搭平台,这个开源项目让你用 Git 管理 AI 任务流
2026-02-03
Claude Code——智能路由与切换工具
2026-02-03
作为投资方,我们试了试Kimi K2.5
2026-02-03
暴涨11.7k Star!复刻Manus上下文工程的开源Skills,Claude code等多个平台即插即用
2026-02-03
ollama v0.15.4 更新:OpenClaw全面上线,优化集成流程与工具解析能力大升级!
2026-02-03
阶跃星辰 Step 3.5 Flash 上线!更快更强更稳的 Agent 大脑,开源!
2026-02-02
一分钟部署OpenClaw+QQ,国内最爽的一键启动!
2026-02-02
这家字节系AI初创,推出首个开源Agent Skills Builder!对话Refly.AI李锦威:大多数Agent都停留在专业用户层面,没有做到真正的普惠
2025-11-19
2026-01-27
2025-12-22
2025-12-10
2025-11-17
2026-01-12
2026-01-29
2025-12-23
2026-01-06
2026-01-28
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16
2026-01-02
2025-12-24