训练、微调、推理

一、介绍

阶段一:训练(预训练)

目标:让模型掌握语言规律、常识知识、推理能力。

维度 说明
输入 海量无标注文本(书籍、网页、论文、代码等),TB级别
资源 数千张GPU(如H100),数月时间,数百万美元成本
产出 基础模型(如GPT-4、Llama 3、DeepSeek-V3)
谁来做 极少数科技巨头(OpenAI、Google、Meta、DeepSeek)

这个阶段模型学到的是通识能力:语法、逻辑、世界知识,但还不擅长特定任务。

阶段二:微调

目标:让基础模型适应特定场景或任务。

维度 说明
输入 少量高质量标注数据(几百到几万条专业问答对)
资源 单张或几张GPU,几小时到几天,成本低廉(几十到几百美元)
产出 专用模型(法律助手、医疗顾问、客服机器人)
谁来做 大多数AI应用公司、企业、开发者

这个阶段是从"通才"到"专才"的转变。微调可以改变模型的说话风格、输出格式,或注入特定领域知识。

阶段三:推理

目标:用训练好的模型实际解决用户问题。

维度 说明
输入 用户的一次请求(一个问题、一段文字、一张图片)
资源 单张GPU甚至CPU,毫秒到秒级响应,单次成本极低(几分钱到几毛钱)
产出 模型生成的回答
谁来做 所有使用AI的用户、应用、开发者

推理是唯一面向终端用户的阶段。你每次问ChatGPT、用DeepSeek,都是在进行推理。

二、对比

维度 训练 微调 推理
本质 从零学习通用知识 调整行为适应特定任务 用学到的知识回答问题
数据量 TB级别 MB-GB级别 单次输入(KB级别)
成本 数百万美元 几十到几百美元 单次几分钱到几毛钱
耗时 数周至数月 数小时至数天 毫秒至秒级
硬件 数千张GPU集群 单张/几张GPU 单张GPU甚至CPU
谁执行 大模型公司 AI应用开发者 所有用户

假设我们要做一个医疗咨询AI:

  1. 训练阶段:DeepSeek公司花费数千万美元,用整个互联网的数据训练出DeepSeek-V3基础模型。这个模型懂医学词汇,但还不会看病。
  2. 微调阶段:某医疗科技公司拿到DeepSeek-V3,用10万条高质量的问诊记录(患者描述 + 医生诊断)进行微调。几小时后,模型学会了如何像医生一样问诊,输出格式也变成了标准病历样式。
  3. 推理阶段:用户在App里输入"我头痛发烧两天了",模型调用微调后的参数,结合用户的输入,生成专业的问诊建议和可能的诊断方向。

三、常见误解澄清

误解 正解
"微调比训练便宜,我自己也能做" ✅ 对,但微调的前提是有一个现成的基础模型
"推理就是训练的反过程" ❌ 不是。训练是学习参数,推理是用参数计算输出
"微调过的模型不需要再训练" ❌ 微调只是调整行为,基础能力还是来自训练阶段
"所有公司都需要自己训练模型" ❌ 绝大多数公司只需要微调和推理就够了
posted @ 2026-03-23 21:53  *一炁化三清*  阅读(4)  评论(0)    收藏  举报