ai必背
人工智能基础核心名词与简答题复习手册
一、必背名词解释(精准踩分版)
-
图灵测试(Turing Test)
- 定义:1950年图灵提出的智能判断标准,通过人类裁判与机器的自然语言对话,若超过30%的裁判误判为“人类”,则机器被认为具备智能。
- 核心:以交互能力作为智能的衡量标准,忽略内部逻辑,侧重行为模拟。
-
符号主义(Symbolicism)
- 核心思想:认为智能源于符号表示与逻辑推理,通过“知识表示+规则引擎”实现智能(如专家系统)。
- 代表:纽厄尔和西蒙的“逻辑理论家”程序,用符号逻辑证明数学定理。
-
监督学习(Supervised Learning)
- 定义:使用带标签数据(X,Y)训练模型,学习输入X到输出Y的映射(如“图像→类别”)。
- 关键:目标是最小化预测值与真实标签的误差,典型算法:线性回归、决策树。
-
K-means算法
- 无监督聚类方法:将数据划分为K个簇,使簇内样本相似度高、簇间差异大。
- 步骤:随机初始化K个中心→分配样本→更新中心→迭代至收敛,常用于用户分群、图像分割。
-
主成分分析(PCA)
- 降维技术:通过线性变换将高维数据投影到低维空间,保留最大方差(即主要信息)。
- 应用:图像压缩(如将1000维特征降为50维)、数据可视化(2D/3D展示高维分布)。
-
BP算法(反向传播算法)
- 神经网络训练核心:通过链式法则计算损失函数对各层权重的梯度,反向更新参数,实现端到端优化。
- 流程:前向传播计算误差→反向传播梯度→梯度下降更新权重,解决多层网络的参数优化问题。
-
LSTM(长短期记忆网络)
- RNN变种:通过“门控机制”(遗忘门、输入门、输出门)解决传统RNN的梯度消失问题,擅长处理长序列依赖。
- 应用:机器翻译(如“我吃饭”与“ I eat”的时序关联)、语音识别。
二、简答题模板(结构分必拿)
1. 监督学习 vs 无监督学习(对比三要素)
维度 | 监督学习 | 无监督学习 |
---|---|---|
数据标签 | 必须有(X,Y),如“图像+类别标签” | 无标签(仅X),如“用户行为数据” |
学习目标 | 拟合X→Y的映射,用于预测新样本的Y | 发现X的内在模式(聚类、降维) |
典型算法 | 线性回归(房价预测)、SVM(垃圾邮件分类) | K-means(客户分群)、PCA(图像降维) |
应用场景 | 精准预测(如股票价格) | 探索性分析(如市场细分) |
2. CNN适合图像处理的三大特性
-
① 局部感知(Local Perception)
- 原理:卷积核仅连接输入图像的局部区域(如3×3窗口),模拟生物视觉皮层对边缘、角点的敏感特性。
- 案例:第一层卷积核提取直线边缘,第二层组合边缘成轮廓,第三层识别物体部件。
-
② 权重共享(Weight Sharing)
- 优势:同一卷积核在图像不同位置使用相同权重,大幅减少参数(如100×100图像+5×5核,参数仅25个)。
- 效果:降低过拟合风险,提升模型泛化能力(如识别不同位置的“猫脸”)。
-
③ 层次特征提取(Hierarchical Feature Extraction)
- 流程:低层卷积提取边缘→中层组合成纹理→高层抽象为物体(如“眼睛+鼻子→猫脸”)。
- 对比传统方法:无需人工设计特征(如SIFT),自动从像素学习语义信息。
3. AI伦理的三大具体挑战(附案例)
-
① 算法偏见(Algorithmic Bias)
- 案例:亚马逊招聘系统对女性简历评分偏低(训练数据中技术岗位简历多为男性),体现数据偏差的继承性。
- 根源:训练数据失衡或隐含社会偏见,需通过数据清洗(如过采样少数类)缓解。
-
② 隐私泄露(Privacy Violation)
- 案例:医疗AI模型通过患者基因数据推断家族病史,违反HIPAA隐私条例。
- 技术应对:差分隐私(添加噪声)、联邦学习(数据不出本地,模型聚合)。
-
③ 就业影响(Employment Disruption)
- 现象:自动驾驶普及可能导致卡车司机失业,美国卡车司机约350万人面临职业转型。
- 社会对策:政府推行再培训计划(如德国“工业4.0”职业转型基金),企业承担AI伦理责任。
三、实战关联(快速复现流程)
1. Scikit-learn线性回归:房价预测全流程
# 1. 数据加载与预处理
from sklearn.datasets import fetch_california_housing
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
data = fetch_california_housing()
X, y = data.data, data.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
scaler = StandardScaler() # 标准化特征(消除量纲影响)
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)
# 2. 模型训练与评估
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score
model = LinearRegression()
model.fit(X_train_scaled, y_train)
y_pred = model.predict(X_test_scaled)
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)
print(f"MSE: {mse:.2f}, R²: {r2:.2f}") # R²越接近1,模型拟合越好
# 3. 结果分析
# MSE衡量预测误差,R²衡量模型解释力(如R²=0.6表示60%的房价波动可被模型解释)
2. MNIST手写数字:CNN各层作用解析
- 数据特点:28×28灰度图像,10个数字类别(0-9)。
- 典型CNN结构(Keras实现):
from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense model = Sequential([ Conv2D(32, (3,3), activation='relu', input_shape=(28,28,1)), # 第一层卷积:32个3×3核,提取边缘 MaxPooling2D((2,2)), # 池化层:降维(28→14),保留关键特征 Conv2D(64, (3,3), activation='relu'), # 第二层卷积:提取数字轮廓(如“0”的环形) MaxPooling2D((2,2)), # 池化层:14→7 Flatten(), # 展平为一维向量(7×7×64=3136维) Dense(128, activation='relu'), # 全连接层:抽象数字语义 Dense(10, activation='softmax') # 输出层:10个类别的概率 ])
- 各层作用:
- 卷积层:从像素中提取边缘→轮廓→数字形状;
- 池化层:降低维度,增强平移不变性(如数字“3”旋转后仍可识别);
- 全连接层:将视觉特征映射到类别空间(如“环形+竖线→数字0”)。
四、考场答题技巧
- 名词解释:先给定义,再举1个简短案例(如“LSTM用于机器翻译,解决长句依赖问题”)。
- 简答题:分点标号(如①②③),每个点配技术原理+案例(如CNN的“局部感知”配“边缘检测”例子)。
- 实战题:记住Scikit-learn的4步流程(加载→预处理→训练→评估),CNN层按“卷积-池化-全连接”顺序描述。
通过以上梳理,可快速覆盖核心考点,建议结合教材案例(如鸢尾花分类、MNIST识别)强化记忆,考前重点默写名词定义与简答题框架!
一、核心概念知识点
生成式对抗网络(GAN):由生成器与判别器组成
注意力机制:能动态分配不同信息的权重,应用不限于自然语言处理
强化学习算法:包含 Q - learning、DQN、PPO ,AdaBoost 属于集成学习算法
决策树:可处理分类和回归任务,易过拟合,按信息增益等准则分裂节点,能处理连续型特征
词嵌入技术:Word2Vec、GloVe、BERT 是常见方法,TF - IDF 不属于词嵌入
迁移学习:可跨领域,需目标领域数据,能加快模型训练,对源模型有要求
时间序列处理模型:LSTM 适合处理时间序列数据
二分类评估指标:准确率衡量整体分类准确程度
对抗样本:通过微小扰动生成,不限于图像识别领域,对模型有负面影响
优化算法:SGD、Adam、Adagrad 是一阶优化算法,Newton 法属于二阶
二、填空高频考点
激活函数:ReLU、Sigmoid(答案不唯一)
决策树剪枝:预剪枝、后剪枝
图神经网络模型:GCN(图卷积网络)、GAT(图注意力网络)
序列标注任务:命名实体识别、词性标注
强化学习模型:MDP(马尔可夫决策过程)
特征选择方法:过滤式、包裹式、嵌入式(任写两个)
三、易错判断知识点
深度学习模型参数多不一定性能好,易过拟合
集成学习结合多个弱学习器提升性能
条件随机场(CRF)是判别式模型
数据增强可用于多种类型数据
生成式模型可用于数据生成和概率密度估计
模型泛化能力指在测试集上的表现
批量归一化(Batch Normalization)能加速模型收敛
对抗学习中,生成器和判别器目标相反
多模态学习处理多种类型数据
梯度下降法中,学习率过大可能导致不收敛
四、名词解释要点
生成式模型:建模数据概率分布,学习联合概率分布
P(X,Y)
,用于生成样本
Transformer 架构:基于注意力机制,并行处理序列信息,广泛应用于多领域
模型压缩:减少模型参数、计算量和存储,方法有剪枝、量化、知识蒸馏
零样本学习:利用辅助信息对未见过类别进行分类预测
知识蒸馏:将教师模型知识迁移到学生模型,降低模型复杂度
五、简答核心逻辑
Bagging 和 Boosting:Bagging 基学习器并行,通过投票 / 平均集成;Boosting 基学习器串行,调整样本权重降低偏差
BERT 过程:预训练通过 MLM 和 NSP 任务学习语义;微调在下游任务调整参数
数据不平衡:影响是模型偏向多数类;解决方法有过采样、欠采样、调整损失函数权重等
图神经网络应用:将社交网络建模为图,聚合邻居信息更新节点特征,用于节点分类等任务
一、关键概念与分类
学习任务分类
无监督:K-means 聚类找数据结构,无标签
监督:房价预测(回归)、垃圾邮件分类(分类),需标签
模型核心技术
RLHF:强化学习 + 人类反馈优化模型
RAG:检索外部知识辅助生成,防 “幻觉”
Transformer:多头注意力并行计算,打破序列依赖
池化作用:降维、减计算量、增强抗干扰(非提取局部特征)
三、常见问题与解决
拟合问题
欠拟合:模型简单,训练 / 测试误差都高 → 增特征、加深网络
过拟合:模型复杂,训练低测试高 → 正则化、数据增强
伦理安全:数据隐私泄露是 AI 伦理核心风险
五、模型结构
RNN 类型:单向、双向、多层
池化类型:最大、平均、随机
模型学习目标
生成模型:联合概率
P(x,y)
判别模型:条件概率
P(x∣y)