LLM-大模型学习中常见词汇
以下均为网络搜索,个人理解
AI
AI(Artificial Intelligence),人工智能。模拟人类思维的计算机系统。
AGI
AI(Artificial General Intelligence),通用人工智能。所谓通用就是指可以处理所有类型的智力任务。这是当前人工智能的终极目标。现在我们使用的人工智能都是偏科的,都只擅长处理某类问题,比如视觉处理,比如擅长和人类对话,比如擅长语音处理,比如擅长下国际象棋(AlphaGo)。
NLP
NLP(Neutal Language Processing),自然语言处理。是人工智能领域的一个分支,目的是让计算机能够理解,思考和生成人类语言。实现和人类对话的能力。
什么是自然语言?我们知道,人类是这个星球上唯一解锁了语言能力的生物。像汉语,英语,法语,印地语,甚至聋哑人用的手语,这都称为自然语言,用于人类之间的沟通。那不自然的语言是啥?比如计算机领域里面各自编程语言:C/C++,java,python等。处理编程语言需要专用的编程领域的大模型。
特点对比:
| 特性 | 自然语言 | 编程语言(如Python) |
|---|---|---|
| 形成方式 | 自然演化(无“设计者”) | 人工设计(有严格语法) |
| 规则灵活性 | 充满例外(如英语复数:child→children) | 绝对规则(缩进错=报错) |
| 歧义容忍度 | 高(“我喜欢苹果”指水果or公司?) | 零(print(x)必须明确x是什么) |
| 使用场景 | 日常交流、情感表达 | 机器指令、逻辑执行 |
🤖 为什么计算机“听不懂”自然语言?
- 模糊性:人类靠上下文、常识化解歧义,而计算机需要明确指令。
- 例:“把灯关了” → 人类知道指哪盏灯,AI需额外传感器确认。
- 隐含知识:自然语言依赖大量背景常识。
- 句:“他考了59分,哭了一整晚。” → 人类懂“及格线60分”,AI需额外标注。
💡 NLP如何“翻译”自然语言?
- 词法分析:拆解句子结构(如中文分词:“下雨天留客天” → “下雨天/留客/天”)。
- 语义理解:关联现实知识(“苹果市值高” → 指公司,非水果)。
- 上下文建模:通过Transformer等模型捕捉前后文关系(如“他们”指代谁?)。
🚀 进阶思考:自然语言的“漏洞”
- 语言陷阱:
- 悖论句:“这句话是假的。” → 自指矛盾让AI宕机。
- 文化依赖性:
- 中文“狗咬人”vs“人咬狗”强调主语差异,英语靠语序,日语靠助词。
LLM
LLM(Large Language Model),大语言模型。是一种基于深度学习的自然语言处理(NLP)模型,能够理解,生成,处理人类语言。它通过海量数据训练,学习单词、句子和篇章之间的统计规律,从而具备文本生成、问答、翻译、等多种能力。其核心技术架构是Transformer神经网络,由具备自注意力机制的编码器和解码器构成,能够高效捕捉长距离语义依赖。这类模型的典型特征包括:
- 规模化:参数量通常达到数十亿甚至万亿级别,通过大规模无监督训练获取通用语言能力。
- 多任务适应性:可完成跨领域任务,如文本生成、内容摘要等。
- 预测式生成:基于概率预测词元(字词/子词)序列,支持段落级连贯输出。
根据上面的描述可知,LLM是NLP领域的一种技术分支。
ML
ML(Machine Learning),机器学习。是人工智能(AI)的一个核心分支,其核心目标是让计算机系统能够通过数据自主学习和改进,而无需显式编程。

浙公网安备 33010602011771号