摘要:
后训练 Post-Training 主要有两种范式:SFT和RL Pre-training (预训练) 通过海量无监督数据的自监督学习(Next Token Prediction),让模型习得语言语法与通用知识。 SFT (监督微调):实现指令对齐 通过高质量问答对进行有监督学习,约束模型的输出空间 阅读全文
posted @ 2025-12-21 01:31
Orzjh
阅读(65)
评论(0)
推荐(0)
摘要:
大模型学习路线(二):预训练 (Pre-training) 说明:预训练是大模型“拥有知识”的关键阶段。秋招面试考察重点集中在数据工程、训练稳定性(混合精度)、Tokenizer 细节以及领域适配(CPT)策略。 🎯 学习目标 掌握从数据清洗配比、Tokenizer 训练、混合精度训练技巧,到领域 阅读全文
posted @ 2025-12-21 01:30
Orzjh
阅读(36)
评论(0)
推荐(0)
摘要:
🎯 学习目标 彻底掌握 Transformer 的每一个组件细节,理解从 Standard Attention 到现代 LLM(如 Llama, Deepseek)架构的演进原因,并能手写核心算法代码。 第一阶段:输入处理 (Input Representation) 1. 分词 (Tokeniz 阅读全文
posted @ 2025-12-21 01:28
Orzjh
阅读(37)
评论(0)
推荐(0)

浙公网安备 33010602011771号