全球最多下载中文开源数据集更新|OpenCSG持续打造中文高质量数据集开源底座
重磅更新
OpenCSG(开放传神)正式发布 Fineweb-Edu-Chinese V2.2 数据集,这是目前开源界少有的、覆盖从预训练(Pre-train)到监督微调(SFT)全流程的高质量中文教育数据集。
V2.2 版本标志着 Chinese Fineweb Edu 从单一的预训练语料库,进化为覆盖从知识注入到行为对齐全流程的完备数据解决方案。本次更新在 V2.1 海量预训练数据的基础上,利用 DeepSeek V3.2 强大的文本理解能力,从全网最优质的 0.1% 语料中蒸馏出 143.7 万条高质量问答对,为社区提供了一套标准化的后训练(Post-training)数据集。
在预训练数据方面,V2.2 继承了 V2.1 的优势,提供约 1.5T tokens 的高质量教育语料,按照评分等级(4-5 分、3-4 分)进行质量分层存储,支持课程学习策略。数据源整合了 CCI3、MAP-CC、OpenCSG-CC 等多个优质中文语料库,通过 OpenCSG csg-wukong-enterprise V2 评分模型进行严格筛选。
在 SFT 数据方面,V2.2 版本采用“质量至上”策略:只选取评分最高的 Top 0.1% 语料作为种子,利用 DeepSeek V3.2 的阅读理解能力,严格基于原文 Context 生成问答对。不同于自由生成的聊天数据,V2.2 的每一条数据都有确凿的原文依据,有效避免了模型幻觉和事实错误。
版本演进与特性对比
V1.0 - 概念验证
规模:~90M 条目 (300GB)
关键特性与改进:
初代 BERT 打分模型
引入MinHash 去重
数据源:CCI2, SkyPile, Tele-AI
V2.0 - 规模化扩展
规模:~188M 条目 (420B Tokens)
关键特性与改进:
升级打分器: OpenCSG csg-wukong-enterprise V2
扩展数据源:Industry2, wanjuan1.0, wudao
V2.1 - 预训练精选
规模:~1.5T Tokens
关键特性与改进:
质量分层:按分数归档 (4-5分,3-4分)
新增源:map-cc, opencsg-cc
支持课程学习
V2.2 - SFT 与对齐
规模:143.7 万条问答对
关键特性与改进:
DeepSeek V3.2 合成:基于顶级语料生成
全流程覆盖:提供数据回溯源与纯净微调版
事实锚定:回答内容严格忠实于原文
Chinese Fineweb Edu Dataset
Chinese Fineweb Edu Dataset 是一个专为中文教育领域大模型开发的高质量数据集系列。在当前的大模型研发中,高质量的中文教育语料依然是稀缺资源。通用语料如 Common Crawl 虽然规模巨大,但包含大量广告、碎片化信息和低质文本,直接用于教育模型训练会导致严重的“幻觉”和逻辑混乱。同时,业界开源的指令微调数据多集中于通用对话或代码能力,极度缺乏经过严谨筛选、具备教学逻辑的垂直领域教育问答数据。这导致许多模型虽然能说话,但无法像老师一样“传道授业”。
V2.2 的里程碑意义
为了解决上述痛点,OpenCSG团队在 V2.1 海量预训练数据的基础上,正式推出了 V2.2 SFT 增强版。不仅提供“燃料”(预训练数据),现在更提供“引擎图纸”(SFT 数据)。通过引入 DeepSeek V3.2 的高阶推理能力,将静态的教科书级文本转化为动态的、具有多轮逻辑的问答对。这标志着 Chinese Fineweb Edu 从单一的语料库,进化为覆盖 Pre-train (知识注入) 到 Post-train (行为对齐) 全流程的完备数据解决方案。
为什么需要高质量的 SFT 数据?
后训练是赋予大模型“交互能力”和“领域专精”的关键阶段。高质量的 SFT 数据能激发推理能力——仅靠预训练,模型拥有知识但不懂如何运用。通过精心设计的问答对,模型学会根据上下文进行推导、归纳和演绎。在教育场景下,准确性是红线。通过“基于原文生成”的问答对,强制模型学习“依据事实回答”,而非凭空捏造。DeepSeek V3.2 生成的数据不仅仅是简单的事实核查,更包含了“解释性”和“引导性”,模拟人类教师的思维链条。
从 1.4TB 到 143 万的精炼之路
为了确保 DeepSeek 生成出最优质的问答OpenCSG团队对输入端的“种子数据”进行了极其严苛的筛选。
OpenCSG团队沿用了 V2 版本中训练的高精度教育奖励模型,该模型基于文本的知识密度、逻辑连贯性、学术严谨度进行 0-5 分的打分。在数亿条数据中,直接截取了 Score 排名最高的 0.1%-0.5%数据作为种子,这些数据主要由 STEM 领域的原理详解、人文社科的深度解析、百科知识的概念解释以及教育材料的知识点总结构成。
将以上“金牌种子”输入 DeepSeek V3.2,利用其强大的指令遵循能力,深度阅读原始文本、识别核心考点、构建教学对话。DeepSeek 被特别提示要生成“详尽、有逻辑步骤”的回答,而非简短的 Yes/No。
V2.2 SFT 数据集详情:重塑后训练流程
本部分数据专为指令微调场景打造。
SFT 数据规格
- Pure QA SFT【微调首选】
数据量:143.7 万条 | 磁盘占用:3.4 GB
仅包含 Instruction 和 Output,格式轻量,专注于让模型学习由 DeepSeek 提炼出的高质量回答范式。
用途:直接用于 LLaMA-Factory 等框架进行 SFT
特点:标准问答对格式,开箱即用
2. Full Context SFT【数据回溯与备份】
数据量:143.7 万条 | 磁盘占用:14.6 GB
包含了 原始种子文本 + Instruction + Output,保留完整上下文信息。
注意:不建议直接用于 SFT 训练(Token 长度过长且包含非对话内容)
用途:仅作为数据溯源使用。当模型表现异常时,可回溯至该文件检查原始知识点是否准确
数据样例与分析
以下是一个真实的数据样例,展示了 DeepSeek V3.2 生成的高质量问答对:
{
"instruction":"瑞士考古学家费迪南德·克勒是谁?他最著名的考古发现是什么,这对我们理解古代历史有什么帮助?",
"input":"",
"output":"费迪南德·克勒(Ferdinand Keller, 1800-1881)是一位瑞士重要考古学家...他最著名的考古发现是1853年在瑞士发现的湖居遗址(也称"干栏建筑")...
这一发现对理解古代历史的帮助主要体现在:1. 生活方式重建:揭示了公元前5000-500年左右阿尔卑斯地区史前人类的居住形态。2. 文化遗存:由于水下环境缺氧,大量有机物(如木材、食物残渣)得以保存,为研究当时的技术水平提供了直接证据..."
}
数据质量分析:
DeepSeek V3.2 在处理此类任务时,展现了极强的信息提取与总结能力。生成的回答不仅包含了事实,还包含了结构化的解释,这是普通短文本 SFT 数据所不具备的。
使用建议:
SFT 微调:推荐使用 sft_qa 分支,配合 LLaMA-Factory、Axolotl 等主流微调框架
预训练:建议采用课程学习策略,先使用 Score 4-5 的高质量数据,再逐步引入 Score 3-4 的数据扩大规模
数据溯源:当模型输出异常时,可通过 sft_context 分支回溯原始知识点,检查数据质量
OpenCSG 全球开源 AI 生态
OpenCSG 以 Chinese FineWeb Edu 为代表的高质量中文数据集体系,已被全球高校、科研机构及科技企业广泛采用,是支撑中文 NLP 研究与大模型产业落地的核心数据基础,从顶尖高校 AI 实验室到企业级生产环境,它持续为大模型预训练、指令微调与领域适配等关键环节提供可靠支撑,推动研究成果向规模化应用高效转化;在学术领域,该数据集已被 100 + 篇论文引用,多次入选 NeurIPS、ACL 等国际顶会及 Nature 子刊、JMLR 等权威期刊,成为验证中文语言模型泛化能力、知识建模效率与跨语言迁移效果的代表性基础资源。
除了 Fineweb-Edu-Chinese 系列,OpenCSG 还发布了 Cosmopedia-Chinese(合成教科书风格数据)和 Smoltalk-Chinese(多样化对话格式数据)等多个高质量中文数据集,构成了完整的 OpenCSG Chinese Corpus 语料体系。这些数据集分别针对预训练、后训练和微调等不同阶段的需求进行了专门设计和优化,为中文大语言模型的全生命周期开发提供了全方位的数据支持。
OpenCSG 通过开源数据、评分模型及完整的数据处理工具链,向社区输出可复用的数据治理方法论,持续降低高质量数据的构建与评估门槛,推动中文 AI 生态从 “模型参数竞争” 转向更加理性、可持续的 “数据基础设施建设” 阶段。
-
高校与研究机构:斯坦福大学(Stanford)、清华大学(Tsinghua)、中国人民大学高瓴人工智能学院、上海人工智能实验室(Shanghai AI Lab)、北京智源研究院(BAAI)、鹏城实验室、西班牙国家级超算中心(BarcelonaSupercomputingCenter)、Mozilla Data Collective等。
-
企业应用:英伟达(NVIDIA)、面壁智能(ModelBest)、中国移动、中国联通等。
OpenCSG 坚持“开源即文化”的理念,通过透明、共创、共享的社区文化,与全球开发者、工程师和 AI 原生企业共同构建智能体生态。无论是数据集、模型还是工具平台,OpenCSG 始终遵循 Apache 2.0 等开源协议,确保技术成果能够被广泛使用和自由创新。这种开放的态度和持续的贡献,使 OpenCSG 成为中文开源 AI 社区的重要推动者和引领者
数据地址数据地址
OpenCSG社区:https://opencsg.com/datasets/OpenCSG/Fineweb-Edu-Chinese-V2.2
hf社区:https://huggingface.co/datasets/opencsg/Fineweb-Edu-Chinese-V2.2
魔搭社区:https://modelscope.cn/datasets/opencsg/Fineweb-Edu-Chinese-V2.2
关于OpenCSG
OpenCSG是全球领先的开源大模型社区平台,致力于打造开放、协同、可持续生态,AgenticOps是人工智能领域的一种AI原生方法论,由OpenCSG(开放传神)提出。AgenticOps是Agentic AI的最佳落地实践也是方法论。核心产品 CSGHub 提供模型、数据集、代码与 AI 应用的 一站式托管、协作与共享服务,具备业界领先的模型资产管理能力,支持多角色协同和高效复用。

浙公网安备 33010602011771号