Ai历史速了解
1.1 大模型发展史笔记
一、学习目标
- 掌握大模型发展的整体脉络
- 理解大模型萌芽期、探索沉淀期、迅猛发展期的核心特征与关键突破
- 明晰各阶段技术演进的逻辑和里程碑事件
二、发展史概览
人工智能的发展是跨越数十年的渐进过程,由关键技术突破驱动,可划分为三个特征鲜明的阶段,各阶段层层递进,最终促成了当前的AI革命。
三、萌芽期(1950-2005)
核心问题
研究者聚焦于让机器“学会”识别模式,核心技术方向为卷积神经网络(CNN)的提出与初步实践。
关键事件
| 年份 | 关键突破 | 核心内容 |
|---|---|---|
| 1956 | 人工智能领域诞生 | 约翰·麦卡锡在达特茅斯会议首次提出“人工智能”术语 |
| 1980 | CNN雏形出现 | 日本学者福岛邦彦提出“神经认知机”,引入“感受野”概念 |
| 1998 | 现代CNN奠基 | Yann LeCun等人提出LeNet-5模型,成功应用于手写数字识别,确立“卷积层+池化层+全连接层”的基本结构 |
阶段特点
- 受限于计算能力和数据规模,仅能处理简单任务(如MNIST手写数据集)
- 训练难度大,易过拟合
- 验证了“端到端”学习的可行性,为后续发展奠定基础
四、探索沉淀期(2006-2019)
核心背景
大数据和GPU计算普及,神经网络进入“深度学习”时代,CNN复兴且全新模型架构井喷。
关键事件
| 年份 | 关键突破 | 核心内容 |
|---|---|---|
| 2012 | 深度学习浪潮开启 | AlexNet在ImageNet挑战赛夺冠,证明深度学习在视觉领域的巨大潜力 |
| 2013 | 文本表示突破 | Google提出Word2Vec,通过无监督学习将单词映射为高维向量,实现语义相似性量化 |
| 2014 | 生成式模型创新 | Lan Goodfellow提出生成对抗网络(GAN),通过生成器与判别器博弈生成逼真内容 |
| 2017 | 核心架构革新 | Google提出Transformer架构,摒弃RNN/CNN,以自注意力机制为核心,支持并行处理序列数据 |
| 2018 | 预训练范式确立 | OpenAI推出GPT-1,Google推出BERT,验证“预训练+微调”范式在NLP任务的有效性 |
阶段特点
- 模型架构(Transformer)和学习范式(预训练+微调)趋于成熟
- AI在视觉、自然语言处理领域均实现突破性进展
- 为大模型时代到来完成技术、方法层面的全面准备
五、迅猛发展期(2020-至今)
核心驱动力
模型参数、数据量、算力规模突破临界点,催生能力“涌现”。
关键事件
| 年份 | 关键突破 | 核心内容 |
|---|---|---|
| 2020 | 大模型能力跃迁 | OpenAI推出GPT-3(1750亿参数),具备上下文学习、指令遵循能力,无需微调即可完成多任务 |
| 2022.11 | 大众化里程碑 | ChatGPT发布,基于RLHF技术实现自然人机对话,推动AI走向大众 |
| 2023.3 | 多模态与推理升级 | GPT-4发布,支持文本/图像多模态交互,逻辑推理能力大幅提升;后续GPT-4 Turbo/GPT-4o优化上下文长度、响应速度 |
| 2023-2024 | 开源生态爆发 | Meta推出Llama系列、Mistral AI推出Mistral Large 2,开源模型对标闭源模型,降低技术门槛 |
| 2024.9 | 复杂推理突破 | OpenAI推出o1模型,在数学/科学计算的复杂推理能力上达到新高度 |
| 2024 | 国产模型崛起 | 阿里通义千问、深度求索DeepSeek v3/R1等,跻身全球第一梯队,DeepSeek R1数学/代码能力表现突出 |
阶段特点
- 模型规模激增,能力“涌现”成为常态
- 技术从单模态向多模态融合发展
- 开源与闭源路线并行,竞争白热化
- 核心能力从“感知”转向“认知”与“推理”
- AI从工具向创造性协作伙伴转变
六、本节小结
人工智能发展遵循“理论突破→工程实现→应用爆发”的技术演化路径:
- 从早期图像识别的基础探索,到Transformer重构序列建模方式
- 再到ChatGPT开启人机交互的大众化时代
- 当前正处于技术爆发的关键阶段,未来竞争将聚焦于推理能力、能源效率、个性化及现实世界深层理解,AI革命仍处于起步阶段。

浙公网安备 33010602011771号