ai必背

人工智能基础核心名词与简答题复习手册

一、必背名词解释(精准踩分版)

  1. 图灵测试(Turing Test)

    • 定义:1950年图灵提出的智能判断标准,通过人类裁判与机器的自然语言对话,若超过30%的裁判误判为“人类”,则机器被认为具备智能。
    • 核心:以交互能力作为智能的衡量标准,忽略内部逻辑,侧重行为模拟。
  2. 符号主义(Symbolicism)

    • 核心思想:认为智能源于符号表示与逻辑推理,通过“知识表示+规则引擎”实现智能(如专家系统)。
    • 代表:纽厄尔和西蒙的“逻辑理论家”程序,用符号逻辑证明数学定理。
  3. 监督学习(Supervised Learning)

    • 定义:使用带标签数据(X,Y)训练模型,学习输入X到输出Y的映射(如“图像→类别”)。
    • 关键:目标是最小化预测值与真实标签的误差,典型算法:线性回归、决策树。
  4. K-means算法

    • 无监督聚类方法:将数据划分为K个簇,使簇内样本相似度高、簇间差异大。
    • 步骤:随机初始化K个中心→分配样本→更新中心→迭代至收敛,常用于用户分群、图像分割。
  5. 主成分分析(PCA)

    • 降维技术:通过线性变换将高维数据投影到低维空间,保留最大方差(即主要信息)。
    • 应用:图像压缩(如将1000维特征降为50维)、数据可视化(2D/3D展示高维分布)。
  6. BP算法(反向传播算法)

    • 神经网络训练核心:通过链式法则计算损失函数对各层权重的梯度,反向更新参数,实现端到端优化。
    • 流程:前向传播计算误差→反向传播梯度→梯度下降更新权重,解决多层网络的参数优化问题。
  7. LSTM(长短期记忆网络)

    • RNN变种:通过“门控机制”(遗忘门、输入门、输出门)解决传统RNN的梯度消失问题,擅长处理长序列依赖。
    • 应用:机器翻译(如“我吃饭”与“ I eat”的时序关联)、语音识别。

二、简答题模板(结构分必拿)

1. 监督学习 vs 无监督学习(对比三要素)
维度 监督学习 无监督学习
数据标签 必须有(X,Y),如“图像+类别标签” 无标签(仅X),如“用户行为数据”
学习目标 拟合X→Y的映射,用于预测新样本的Y 发现X的内在模式(聚类、降维)
典型算法 线性回归(房价预测)、SVM(垃圾邮件分类) K-means(客户分群)、PCA(图像降维)
应用场景 精准预测(如股票价格) 探索性分析(如市场细分)
2. CNN适合图像处理的三大特性
  • ① 局部感知(Local Perception)

    • 原理:卷积核仅连接输入图像的局部区域(如3×3窗口),模拟生物视觉皮层对边缘、角点的敏感特性。
    • 案例:第一层卷积核提取直线边缘,第二层组合边缘成轮廓,第三层识别物体部件。
  • ② 权重共享(Weight Sharing)

    • 优势:同一卷积核在图像不同位置使用相同权重,大幅减少参数(如100×100图像+5×5核,参数仅25个)。
    • 效果:降低过拟合风险,提升模型泛化能力(如识别不同位置的“猫脸”)。
  • ③ 层次特征提取(Hierarchical Feature Extraction)

    • 流程:低层卷积提取边缘→中层组合成纹理→高层抽象为物体(如“眼睛+鼻子→猫脸”)。
    • 对比传统方法:无需人工设计特征(如SIFT),自动从像素学习语义信息。
3. AI伦理的三大具体挑战(附案例)
  • ① 算法偏见(Algorithmic Bias)

    • 案例:亚马逊招聘系统对女性简历评分偏低(训练数据中技术岗位简历多为男性),体现数据偏差的继承性。
    • 根源:训练数据失衡或隐含社会偏见,需通过数据清洗(如过采样少数类)缓解。
  • ② 隐私泄露(Privacy Violation)

    • 案例:医疗AI模型通过患者基因数据推断家族病史,违反HIPAA隐私条例。
    • 技术应对:差分隐私(添加噪声)、联邦学习(数据不出本地,模型聚合)。
  • ③ 就业影响(Employment Disruption)

    • 现象:自动驾驶普及可能导致卡车司机失业,美国卡车司机约350万人面临职业转型。
    • 社会对策:政府推行再培训计划(如德国“工业4.0”职业转型基金),企业承担AI伦理责任。

三、实战关联(快速复现流程)

1. Scikit-learn线性回归:房价预测全流程
# 1. 数据加载与预处理  
from sklearn.datasets import fetch_california_housing  
from sklearn.model_selection import train_test_split  
from sklearn.preprocessing import StandardScaler  
data = fetch_california_housing()  
X, y = data.data, data.target  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)  
scaler = StandardScaler()  # 标准化特征(消除量纲影响)  
X_train_scaled = scaler.fit_transform(X_train)  
X_test_scaled = scaler.transform(X_test)  

# 2. 模型训练与评估  
from sklearn.linear_model import LinearRegression  
from sklearn.metrics import mean_squared_error, r2_score  
model = LinearRegression()  
model.fit(X_train_scaled, y_train)  
y_pred = model.predict(X_test_scaled)  
mse = mean_squared_error(y_test, y_pred)  
r2 = r2_score(y_test, y_pred)  
print(f"MSE: {mse:.2f}, R²: {r2:.2f}")  # R²越接近1,模型拟合越好  

# 3. 结果分析  
# MSE衡量预测误差,R²衡量模型解释力(如R²=0.6表示60%的房价波动可被模型解释)
2. MNIST手写数字:CNN各层作用解析
  • 数据特点:28×28灰度图像,10个数字类别(0-9)。
  • 典型CNN结构(Keras实现)
    from tensorflow.keras.models import Sequential  
    from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense  
    model = Sequential([  
        Conv2D(32, (3,3), activation='relu', input_shape=(28,28,1)),  # 第一层卷积:32个3×3核,提取边缘  
        MaxPooling2D((2,2)),  # 池化层:降维(28→14),保留关键特征  
        Conv2D(64, (3,3), activation='relu'),  # 第二层卷积:提取数字轮廓(如“0”的环形)  
        MaxPooling2D((2,2)),  # 池化层:14→7  
        Flatten(),  # 展平为一维向量(7×7×64=3136维)  
        Dense(128, activation='relu'),  # 全连接层:抽象数字语义  
        Dense(10, activation='softmax')  # 输出层:10个类别的概率  
    ])  
    
  • 各层作用
    • 卷积层:从像素中提取边缘→轮廓→数字形状;
    • 池化层:降低维度,增强平移不变性(如数字“3”旋转后仍可识别);
    • 全连接层:将视觉特征映射到类别空间(如“环形+竖线→数字0”)。

四、考场答题技巧

  1. 名词解释:先给定义,再举1个简短案例(如“LSTM用于机器翻译,解决长句依赖问题”)。
  2. 简答题:分点标号(如①②③),每个点配技术原理+案例(如CNN的“局部感知”配“边缘检测”例子)。
  3. 实战题:记住Scikit-learn的4步流程(加载→预处理→训练→评估),CNN层按“卷积-池化-全连接”顺序描述。

通过以上梳理,可快速覆盖核心考点,建议结合教材案例(如鸢尾花分类、MNIST识别)强化记忆,考前重点默写名词定义与简答题框架!


一、核心概念知识点​
生成式对抗网络(GAN):由生成器与判别器组成​
注意力机制:能动态分配不同信息的权重,应用不限于自然语言处理​
强化学习算法:包含 Q - learning、DQN、PPO ,AdaBoost 属于集成学习算法​
决策树:可处理分类和回归任务,易过拟合,按信息增益等准则分裂节点,能处理连续型特征​
词嵌入技术:Word2Vec、GloVe、BERT 是常见方法,TF - IDF 不属于词嵌入​
迁移学习:可跨领域,需目标领域数据,能加快模型训练,对源模型有要求​
时间序列处理模型:LSTM 适合处理时间序列数据​
二分类评估指标:准确率衡量整体分类准确程度​
对抗样本:通过微小扰动生成,不限于图像识别领域,对模型有负面影响​
优化算法:SGD、Adam、Adagrad 是一阶优化算法,Newton 法属于二阶​
二、填空高频考点​
激活函数:ReLU、Sigmoid(答案不唯一)​
决策树剪枝:预剪枝、后剪枝​
图神经网络模型:GCN(图卷积网络)、GAT(图注意力网络)​
序列标注任务:命名实体识别、词性标注​
强化学习模型:MDP(马尔可夫决策过程)​
特征选择方法:过滤式、包裹式、嵌入式(任写两个)​
三、易错判断知识点​
深度学习模型参数多不一定性能好,易过拟合​
集成学习结合多个弱学习器提升性能​
条件随机场(CRF)是判别式模型​
数据增强可用于多种类型数据​
生成式模型可用于数据生成和概率密度估计​
模型泛化能力指在测试集上的表现​
批量归一化(Batch Normalization)能加速模型收敛​
对抗学习中,生成器和判别器目标相反​
多模态学习处理多种类型数据​
梯度下降法中,学习率过大可能导致不收敛​
四、名词解释要点​
生成式模型:建模数据概率分布,学习联合概率分布

P(X,Y)
,用于生成样本​
Transformer 架构:基于注意力机制,并行处理序列信息,广泛应用于多领域​
模型压缩:减少模型参数、计算量和存储,方法有剪枝、量化、知识蒸馏​
零样本学习:利用辅助信息对未见过类别进行分类预测​
知识蒸馏:将教师模型知识迁移到学生模型,降低模型复杂度​
五、简答核心逻辑​
Bagging 和 Boosting:Bagging 基学习器并行,通过投票 / 平均集成;Boosting 基学习器串行,调整样本权重降低偏差​
BERT 过程:预训练通过 MLM 和 NSP 任务学习语义;微调在下游任务调整参数​
数据不平衡:影响是模型偏向多数类;解决方法有过采样、欠采样、调整损失函数权重等​
图神经网络应用:将社交网络建模为图,聚合邻居信息更新节点特征,用于节点分类等任务

一、关键概念与分类

学习任务分类
无监督:K-means 聚类找数据结构,无标签
监督:房价预测(回归)、垃圾邮件分类(分类),需标签
模型核心技术
RLHF:强化学习 + 人类反馈优化模型
RAG:检索外部知识辅助生成,防 “幻觉”
Transformer:多头注意力并行计算,打破序列依赖

池化作用:降维、减计算量、增强抗干扰(非提取局部特征)
三、常见问题与解决

拟合问题
欠拟合:模型简单,训练 / 测试误差都高 → 增特征、加深网络
过拟合:模型复杂,训练低测试高 → 正则化、数据增强
伦理安全:数据隐私泄露是 AI 伦理核心风险

五、模型结构

RNN 类型:单向、双向、多层
池化类型:最大、平均、随机
模型学习目标
生成模型:联合概率
P(x,y)
判别模型:条件概率
P(x∣y)

posted @ 2025-06-26 17:36  GJ504b  阅读(18)  评论(0)    收藏  举报