LLM-大模型学习中常见词汇

以下均为网络搜索,个人理解

AI

AI(Artificial Intelligence),人工智能。模拟人类思维的计算机系统。

AGI

AI(Artificial General Intelligence),通用人工智能。所谓通用就是指可以处理所有类型的智力任务。这是当前人工智能的终极目标。现在我们使用的人工智能都是偏科的,都只擅长处理某类问题,比如视觉处理,比如擅长和人类对话,比如擅长语音处理,比如擅长下国际象棋(AlphaGo)。

NLP

NLP(Neutal Language Processing),自然语言处理。是人工智能领域的一个分支,目的是让计算机能够理解,思考和生成人类语言。实现和人类对话的能力。

什么是自然语言?我们知道,人类是这个星球上唯一解锁了语言能力的生物。像汉语,英语,法语,印地语,甚至聋哑人用的手语,这都称为自然语言,用于人类之间的沟通。那不自然的语言是啥?比如计算机领域里面各自编程语言:C/C++,java,python等。处理编程语言需要专用的编程领域的大模型。

特点对比:

特性 自然语言 编程语言(如Python)
形成方式 自然演化(无“设计者”) 人工设计(有严格语法)
规则灵活性 充满例外(如英语复数:child→children) 绝对规则(缩进错=报错)
歧义容忍度 高(“我喜欢苹果”指水果or公司?) 零(print(x)必须明确x是什么)
使用场景 日常交流、情感表达 机器指令、逻辑执行

🤖 为什么计算机“听不懂”自然语言?

  1. 模糊性:人类靠上下文、常识化解歧义,而计算机需要明确指令。
    • 例:“把灯关了” → 人类知道指哪盏灯,AI需额外传感器确认。
  2. 隐含知识:自然语言依赖大量背景常识。
    • 句:“他考了59分,哭了一整晚。” → 人类懂“及格线60分”,AI需额外标注。

💡 NLP如何“翻译”自然语言?

  1. 词法分析:拆解句子结构(如中文分词:“下雨天留客天” → “下雨天/留客/天”)。
  2. 语义理解:关联现实知识(“苹果市值高” → 指公司,非水果)。
  3. 上下文建模:通过Transformer等模型捕捉前后文关系(如“他们”指代谁?)。

🚀 进阶思考:自然语言的“漏洞”

  • 语言陷阱
    • 悖论句:“这句话是假的。” → 自指矛盾让AI宕机。
  • 文化依赖性
    • 中文“狗咬人”vs“人咬狗”强调主语差异,英语靠语序,日语靠助词。

LLM

LLM(Large Language Model),大语言模型。是一种基于深度学习的自然语言处理(NLP)模型,能够理解,生成,处理人类语言。它通过海量数据训练,学习单词、句子和篇章之间的统计规律,从而具备文本生成、问答、翻译、等多种能力。其核心技术架构是Transformer神经网络,由具备自注意力机制的编码器和解码器构成,能够高效捕捉长距离语义依赖。这类模型的典型特征包括:

  1. 规模化:参数量通常达到数十亿甚至万亿级别,通过大规模无监督训练获取通用语言能力。
  2. 多任务适应性:可完成跨领域任务,如文本生成、内容摘要等。
  3. 预测式生成:基于概率预测词元(字词/子词)序列,支持段落级连贯输出。

根据上面的描述可知,LLM是NLP领域的一种技术分支。

ML

ML(Machine Learning),机器学习。是人工智能(AI)的一个核心分支,其核心目标是让计算机系统能够通过数据自主学习和改进,而无需显式编程。

posted @ 2025-08-08 15:07  thammer  阅读(23)  评论(0)    收藏  举报