语言模型咋分类,

这页讲语言模型咋分类,大白话逐个拆:

1. 统计语言模型(SLM)

  • 特点:靠 “统计规律” 干活,比如 ngram 模型,就是数 “哪些词经常一起出现” 。
  • 大白话:像 “查字典统计高频搭配”,比如知道 “天气” 常和 “不错” 连,就用这规律判断句子对不对。

2. 神经语言模型(NLM)

  • 特点:用 “神经网络” 学语言,比如 rnn 模型,能记上下文信息(像你说话时,前面讲啥会影响后面内容 )。
  • 大白话:像 “让电脑模拟人脑记事儿”,读了前半句,能顺着猜出后半句,比统计模型更灵活。

3. 预训练语言模型(PLM)

  • 特点:先拿 “海量数据” 预训练(比如 Bert、GPT ),学通用语言规律;用的时候再微调。
  • 大白话:先让模型 “看遍天下文章” 学基础,再针对具体任务(比如聊天、翻译 )“补补课”,适配性更强。

4. 大语言模型(LLM)

  • 特点:“超大版” 预训练模型,数据更多、模型更复杂(比如 ChatGPT ),能处理超多样任务,啥都能聊。
  • 大白话:“超级大脑”,见多识广,能回答问题、写文章、甚至模拟对话,越复杂任务越厉害。

总结:语言模型从 “简单统计搭配”(SLM),到 “神经网记上下文”(NLM),再到 “先预学再微调”(PLM),最后 “超大超强啥都会”(LLM),越来越聪明、能干~
 
posted @ 2025-06-22 09:23  m516606428  阅读(45)  评论(0)    收藏  举报