这页讲语言模型咋分类,大白话逐个拆:
- 特点:靠 “统计规律” 干活,比如 ngram 模型,就是数 “哪些词经常一起出现” 。
- 大白话:像 “查字典统计高频搭配”,比如知道 “天气” 常和 “不错” 连,就用这规律判断句子对不对。
- 特点:用 “神经网络” 学语言,比如 rnn 模型,能记上下文信息(像你说话时,前面讲啥会影响后面内容 )。
- 大白话:像 “让电脑模拟人脑记事儿”,读了前半句,能顺着猜出后半句,比统计模型更灵活。
- 特点:先拿 “海量数据” 预训练(比如 Bert、GPT ),学通用语言规律;用的时候再微调。
- 大白话:先让模型 “看遍天下文章” 学基础,再针对具体任务(比如聊天、翻译 )“补补课”,适配性更强。
- 特点:“超大版” 预训练模型,数据更多、模型更复杂(比如 ChatGPT ),能处理超多样任务,啥都能聊。
- 大白话:“超级大脑”,见多识广,能回答问题、写文章、甚至模拟对话,越复杂任务越厉害。
总结:语言模型从 “简单统计搭配”(SLM),到 “神经网记上下文”(NLM),再到 “先预学再微调”(PLM),最后 “超大超强啥都会”(LLM),越来越聪明、能干~