训练、微调、推理
一、介绍
阶段一:训练(预训练)
目标:让模型掌握语言规律、常识知识、推理能力。
| 维度 | 说明 |
|---|---|
| 输入 | 海量无标注文本(书籍、网页、论文、代码等),TB级别 |
| 资源 | 数千张GPU(如H100),数月时间,数百万美元成本 |
| 产出 | 基础模型(如GPT-4、Llama 3、DeepSeek-V3) |
| 谁来做 | 极少数科技巨头(OpenAI、Google、Meta、DeepSeek) |
这个阶段模型学到的是通识能力:语法、逻辑、世界知识,但还不擅长特定任务。
阶段二:微调
目标:让基础模型适应特定场景或任务。
| 维度 | 说明 |
|---|---|
| 输入 | 少量高质量标注数据(几百到几万条专业问答对) |
| 资源 | 单张或几张GPU,几小时到几天,成本低廉(几十到几百美元) |
| 产出 | 专用模型(法律助手、医疗顾问、客服机器人) |
| 谁来做 | 大多数AI应用公司、企业、开发者 |
这个阶段是从"通才"到"专才"的转变。微调可以改变模型的说话风格、输出格式,或注入特定领域知识。
阶段三:推理
目标:用训练好的模型实际解决用户问题。
| 维度 | 说明 |
|---|---|
| 输入 | 用户的一次请求(一个问题、一段文字、一张图片) |
| 资源 | 单张GPU甚至CPU,毫秒到秒级响应,单次成本极低(几分钱到几毛钱) |
| 产出 | 模型生成的回答 |
| 谁来做 | 所有使用AI的用户、应用、开发者 |
推理是唯一面向终端用户的阶段。你每次问ChatGPT、用DeepSeek,都是在进行推理。
二、对比
| 维度 | 训练 | 微调 | 推理 |
|---|---|---|---|
| 本质 | 从零学习通用知识 | 调整行为适应特定任务 | 用学到的知识回答问题 |
| 数据量 | TB级别 | MB-GB级别 | 单次输入(KB级别) |
| 成本 | 数百万美元 | 几十到几百美元 | 单次几分钱到几毛钱 |
| 耗时 | 数周至数月 | 数小时至数天 | 毫秒至秒级 |
| 硬件 | 数千张GPU集群 | 单张/几张GPU | 单张GPU甚至CPU |
| 谁执行 | 大模型公司 | AI应用开发者 | 所有用户 |
假设我们要做一个医疗咨询AI:
- 训练阶段:DeepSeek公司花费数千万美元,用整个互联网的数据训练出DeepSeek-V3基础模型。这个模型懂医学词汇,但还不会看病。
- 微调阶段:某医疗科技公司拿到DeepSeek-V3,用10万条高质量的问诊记录(患者描述 + 医生诊断)进行微调。几小时后,模型学会了如何像医生一样问诊,输出格式也变成了标准病历样式。
- 推理阶段:用户在App里输入"我头痛发烧两天了",模型调用微调后的参数,结合用户的输入,生成专业的问诊建议和可能的诊断方向。
三、常见误解澄清
| 误解 | 正解 |
|---|---|
| "微调比训练便宜,我自己也能做" | ✅ 对,但微调的前提是有一个现成的基础模型 |
| "推理就是训练的反过程" | ❌ 不是。训练是学习参数,推理是用参数计算输出 |
| "微调过的模型不需要再训练" | ❌ 微调只是调整行为,基础能力还是来自训练阶段 |
| "所有公司都需要自己训练模型" | ❌ 绝大多数公司只需要微调和推理就够了 |

浙公网安备 33010602011771号