2026.1.20总结
了解大数据基础
AI 发展历程与核心技术演进
一、AI 总体发展历程
| 阶段 | 时间 | 核心技术 | 主要特点 |
|---|---|---|---|
| 早期 AI(符号主义) | 1950s–1980s | 规则系统、专家系统 | 人工编写规则,逻辑推理能力强,通用性差 |
| 统计机器学习 | 1980s–2010s | SVM、KNN、决策树、朴素贝叶斯 | 模型从数据中学习,泛化能力更强 |
| 深度学习崛起 | 2012–至今 | CNN、RNN、Transformer | 端到端学习,自动提取特征,在图像、语音、NLP领域取得突破 |
| 大模型时代 | 2020–至今 | GPT、BERT、Diffusion、多模态模型 | 预训练+微调范式,通用智能趋势明显 |
二、从机器学习到深度学习
1. 机器学习(Machine Learning)
定义:从数据中学习模型的技术
典型流程:
人工提取特征(特征工程)
输入特征给模型(如SVM、逻辑回归、随机森林)
模型学习输入与输出的映射关系
主要模型:
监督学习:KNN、SVM、决策树、随机森林
无监督学习:K-Means、PCA
强化学习:Q-Learning
局限:
需要手工设计特征
对复杂结构数据(图像、语音、语言)学习能力差
2. 深度学习(Deep Learning)
核心:以神经网络为核心的学习方式,能自动从原始数据中提取特征
技术转折点:2012年AlexNet赢得ImageNet比赛,误差骤降,深度学习进入主流
关键技术:利用GPU、大数据训练多层神经网络
模型演进:CNN → RNN → LSTM → Transformer
核心优势:
不再依赖人工特征设计
能直接处理图像、语音、文本等原始数据
规模越大,性能越强(规模化效应)
3. 机器学习与深度学习对比
| 项目 | 机器学习(ML) | 深度学习(DL) |
|---|---|---|
| 特征提取 | 人工提取 | 自动学习 |
| 模型复杂度 | 中等 | 极高(百万~十亿参数) |
| 数据需求 | 相对较少 | 需要大规模数据 |
| 硬件依赖 | 低 | 高(依赖GPU/TPU) |
| 应用范围 | 结构化数据 | 图像、语音、NLP等非结构化数据 |
三、从深度学习到大模型
1. 深度学习瓶颈
| 问题 | 描述 |
|---|---|
| 任务特定 | 模型只能解决一个任务,迁移性弱 |
| 监督学习依赖强 | 训练需要大量标注数据 |
| 推理能力差 | 缺乏常识和复杂推理能力 |
| 模型小、单一 | 参数百万级,能力受限 |
2. 大模型时代的三大转变
| 项目 | 深度学习时代 | 大模型时代 |
|---|---|---|
| 模型规模 | 百万到千万参数 | 数十亿到数千亿(甚至万亿)参数 |
| 训练方式 | 监督学习 | 自监督 + 大数据预训练 |
| 模型能力 | 专用模型 | 通用模型(多任务、多模态) |
3. 大模型的核心特点
| 特点 | 描述 |
|---|---|
| 通用性强 | 一个模型可应对NLP多个任务,甚至图像、语音等多模态任务 |
| Few-shot/Zero-shot能力 | 无需训练或仅需少量样本就能解决新任务 |
| 可拓展性 | 模型越大性能越强(Scaling Laws) |
| 多模态能力 | 支持文本、图像、音频、视频等输入输出(GPT-4o、Gemini) |
| 工具化能力 | 能调用外部工具(如搜索、计算器、API) |
4. 大模型引发的变革
| AI 2.0(深度学习) | AI 3.0(大模型) |
|---|---|
| 训练任务特定模型 | 训练通用基础模型 |
| 依赖标签 | 使用自监督数据 |
| 小模型拼接多系统 | 单一大模型解决多任务 |
| 专家调参 | 自动对齐、人类反馈训练 |
四、AGI(人工通用智能)
1. 什么是AGI
定义:能像人类一样完成任意智能任务,具有跨任务迁移、推理与学习能力
核心特征:
持续学习、自我反思
具备动机与规划能力
能通用地理解世界和解决问题
2. 大模型与AGI的关系
| 方面 | 大模型(LLMs) | AGI |
|---|---|---|
| 通用性 | 高,跨任务能力强 | 极高,任意任务都能适应 |
| 推理能力 | 有限(依赖上下文) | 强,能自主构建知识链 |
| 学习能力 | 静态模型,需微调 | 持续学习,自适应变化 |
| 记忆能力 | 上下文窗口临时记忆 | 长期记忆 + 知识持久化 |
| 意图/动机 | 无真正意图 | 有目标、有自我决策能力 |
| 工具能力 | 通过函数调用拓展 | 工具内化、灵活使用 |
| 自我反思 | 无 | 有元认知能力 |
3. 大模型是AGI的演进阶段
演进路径:
人工智能 → 机器学习 → 深度学习 → 大模型 → 智能体(Agent)→ AGI
大模型是"逼近AGI"过程中的基础能力载体
AGI实现路径:大模型 + Agent架构 + 工具能力 + 记忆系统
五、AIGC(AI生成内容)
1. AIGC定义
全称:AI-Generated Content(人工智能生成内容)
含义:通过生成式AI自动生产文本、图像、音频、视频、代码等数字内容
定位:内容创作方式的范式变革
2. AIGC的典型应用
| 类型 | 示例 | 常用模型 |
|---|---|---|
| 文本生成 | 写文章、写诗、摘要、对话 | GPT-4, Claude, GLM |
| 图像生成 | 插画、头像、壁画、设计图 | DALL·E, Midjourney, Stable Diffusion |
| 音频生成 | 背景音乐、配音、拟人声音 | MusicLM, TTS模型 |
| 视频生成 | 动态广告、数字人、短片 | Sora, Runway |
| 代码生成 | 自动补全、脚本生成 | Copilot, CodeWhisperer |
| 3D生成 | 模型、数字资产 | DreamFusion, GET3D |
3. AIGC的技术基础
| 技术层 | 代表技术 |
|---|---|
| 模型架构 | Transformer, Diffusion Model |
| 训练范式 | 自监督预训练、RLHF、人类对齐 |
| 多模态融合 | 文本+图像、语音+视频 |
| 工具链 | Prompt编写、API调用、模型微调 |
| 基础设施 | GPU/TPU、vLLM、LoRA、推理加速器 |
4. AIGC与大模型、AGI的关系
| 概念 | 定义 | 关系 |
|---|---|---|
| AIGC | AI生成的内容 | 是大模型的直接应用产物 |
| 大模型 | 基础语言/图像模型 | 为AIGC提供核心能力(如GPT) |
| AGI | 通用人工智能 | AIGC是它可掌握的"技能"之一 |
5. 三者关系比喻
大模型 = "发动机"(提供核心能力)
AIGC = "发动机驱动下的应用(车)"(具体应用场景)
AGI = "驾驶员"(能理解上下文、做出决策、灵活运用工具)

浙公网安备 33010602011771号