BERT 的 Pre-train + Fine-tune 流程 凭借预训练阶段学到的通用语言理解能力,可高效适配多种 NLP 任务,按任务类型分类如下:
- 文本情感分析:判断评论、文章的情感倾向(正面 / 负面 / 中性),如电商评论褒贬分类。
- 主题分类:给文本划分主题类别(新闻分政治、科技、娱乐等)。
- 意图识别:识别用户查询的目的(如 “今天天气如何”→天气查询意图)。
- 垃圾文本检测:区分垃圾邮件、广告与正常文本。
- 命名实体识别(NER):提取文本中的人名、地名、机构名等(如 “北京是中国的首都”→北京 [地名])。
- 词性标注(POS):标注每个词的词性(名词、动词、形容词等)。
- 语义角色标注(SRL):分析句子中各成分的语义角色(如 “小明吃苹果”→小明 [施事],苹果 [受事])。
- 问答系统(QA):
- 抽取式问答:从文本中直接提取答案(如 “鲁迅生于哪年?”→文本中找 “1881 年”)。
- 阅读理解:基于给定文档回答问题(如高考语文阅读理解题)。
- 文本匹配 / 相似度计算:判断两个文本是否意思相近(如 “计算机” 和 “电脑” 是否同义)、是否属于同一话题。
- 自然语言推理(NLI):判断两个句子的逻辑关系(如 “今天下雨” 和 “今天没出太阳”→蕴含关系)。
- 摘要生成:压缩长文本为短摘要(如新闻摘要、论文摘要)。
- 翻译(需结合 Seq2Seq 结构微调):中英互译、语言翻译(BERT 原生更适合文本理解,生成任务常结合 GPT 类模型,但微调后也可做轻量翻译)。
- 文本续写 / 补全:根据前文生成后续内容(如邮件自动补全)。
- 关系抽取:从文本中提取实体间关系(如 “华为总部在深圳”→华为 [机构] - 所在地 [关系] - 深圳 [地点])。
- 事件抽取:提取文本中的事件要素(时间、地点、参与者等),如 “张三 2023 年在上海创办公司”→事件类型 [创办],时间 [2023 年],地点 [上海]。
- 图文问答:结合图片和文本进行问答(如 “图片中的人在做什么?”→需文本理解 + 图像信息处理,BERT 可处理文本部分,常与视觉模型结合)。
- 适配逻辑:预训练阶段 BERT 学会了文本的语义表示(如词向量、句子向量),微调时只需在模型顶层添加任务特定层(如分类层、生成层),用少量标注数据让模型将通用语义映射到具体任务输出。
- 优势场景:尤其适合标注数据少、任务复杂的场景(如小众领域问答),因预训练阶段已积累大量语言知识,微调时 “举一反三” 能力强。
BERT 的预训练 + 微调模式几乎覆盖 所有 NLP 基础任务,从简单的分类到复杂的语义理解、生成,只要任务能转化为 “文本理解 + 特定输出” 的形式,就能通过微调实现高效落地。