《机器学习》第一次作业——第一至三章学习记录和心得

《机器学习》第一至三章学习记录和心得

Bienvenu !


Chapter 1


un-模式识别基本概念

  • 模式识别应用实例:字符识别、交通标志识别、动作识别、语音识别、模式识别、应用程序识别、目标抓取、无人驾驶、价格预测等。
  • 模式识别可以划分为“分类”和“回归”两种形式。其中分类输出量是离散的类别表达,常见为二类分类和多类分类。回归输出量是连续的信号表达,可有单个维度和多个维度之分。
  • 模式识别本质上是一种推理过程。

deux-模式识别数学表达

  • 模型是指关于已有知识的一种表达方式,即函数f(x)。

  • 二类分类判别器使用sign函数:判断回归值大于0还是小于0。

  • 多类分类判别器使用max函数,取最大的回归值所在维度对应的类别。

  • 特征向量指多个特征构成的(列)向量。

trois-特征向量的相关性

  • 点积具备对称性,向量投影不具备对称性。
  • 残差向量指向量x分解到向量y方向上得到的投影向量与原向量x的误差。
  • 特征向量之间的欧氏距离可以表征两个向量之间的相似程度。

quatre-机器学习基本概念

  • 训练样本可认为是尚未加工的原始知识,模型则是经过学习后的真正知识表达。

  • 线性模型(直线、面、超平面)。

  • 非线性模型(曲线、曲面、超曲面)。

  • 常见非线性模型:多项式、神经网络、决策树……

  • 监督式学习:训练样本极其输出真值都给定情况下的机器学习算法。

  • 无监督式学习:只给定训练样本、没有输出真值情况下的机器学习算法。

  • 半监督式学习:既有标注的训练样本、又有未标注的训练样本情况下的学习算法。

  • 强化学习:机器自行探索决策,真值滞后反馈的过程。

cinq-模型的泛化能力

  • 泛化能力:学习算法对新模式的决策能力。

  • 训练集是模型训练所用的样本数据,集合中的每个样本称作训练样本;测试集是测试模型性能所用的样本数据,集合中的每个样本称作测试样本。

  • 测试样本假设从样本真实分布中独立同分布(iid)。

  • 测试误差也称泛化误差。

  • 过拟合是泛化能力低的表现。

  • 提高泛化能力的一个思路是不要过度训练。

six-评估方法与性能指标

  • 模型性能的评估方法通常有留出法、K折交叉验证、留一验证等。

  • 准确度=(TP+TN)/(TP+TN+FP+FN)。

  • 精度=TP/(TP+FP)。

  • 召回率=TP/(TP+FN)。

  • F-score=((a2+1)*精度*召回率)/(a2*精度+召回率),a为常数。

  • PR曲线:横轴召回率,纵轴精度。

  • ROC曲线:横轴为1-specificity,纵轴为召回率。

  • AUC:曲线下方面积。

Chapter 2


sept-MED分类器

  • 几种“距离”:欧氏距离、曼哈顿距离(绝对值距离、出租车几何)、切比雪夫距离(国际象棋中国王可以移动的位置)、闵式距离、马氏距离等。
  • MED分类器:最小欧式距离分类器。
  • MED分类器在高维空间中的决策边界是一个超平面。

huit-特征白化

  • 特征正交白化:将特征转换分为两步,先去除特征之间的相关性(解耦),再对特征进行尺度变换(白化),使每维特征的方差相等。
  • 原始特征经特征解耦转换后欧式距离不变。

neuf-MICD分类器

  • MICD分类器:最小类内距离分类器,基于马氏距离。

  • MICD分类器等距图是一个超球面/超椭圆面(高维空间)。

  • MICD分类器决策边界可是一个超抛物面或者超双曲面。

  • MICD的缺陷:选择方差较大的类。

Chapter 3


dix-贝叶斯决策理论

  • MAP分类器:最大后验概率分类器,将测试样本决策分类给后验概率最大的那个类。

  • 单维空间MAP分类器通常有两类决策边界,高维空间决策边界是复杂的非线性边界。

  • MAP分类器决策目标:最小化概率误差。

onze-MAP分类器分析

  • 方差相同的情况下,MAP决策边界偏向先验可能性较小的类,即决策偏向先验概率高的类。
  • 先验概率相等时,分类器倾向选择方差较小的类。

douze-贝叶斯分类器

  • 不同的错误决策会产生程度完全不一样的风险。

  • 贝叶斯分类器:在MAP分类器的基础上,加入决策风险因素。

  • 贝叶斯分类器的决策目标:最小化期望损失。

  • 如果特征是多维,学习特征之间的相关性会很困难。朴素贝叶斯分类器假设特征之间是相互独立的。

  • 为了避免出现错误决策,分类器可以选择拒绝,可以通过引入阈值的方法实现。

treize-最大似然估计

  • 先验概率的最大似然估计就是该类训练样本出现的频率。

  • 高斯分布均值的最大似然估计等于样本的均值。

  • 高斯分布协方差的最大似然估计等于所有训练模式的协方差。

quatorze-最大似然估计的偏差

  • 高斯分布均值的最大似然估计是无偏估计。

  • 高斯分布协方差的最大似然估计是有偏估计。

quinze-贝叶斯估计1

  • 贝叶斯估计:给定参数分布的先验概率以及训练样本,估计参数分布的后验概率。
  • 贝叶斯估计具备不断学习的能力。

seize-贝叶斯估计2

  • 贝叶斯估计的目的:估计观测似然概率,给定量为观测似然分布的形式、参数的先验概率、训练样本。
  • 贝叶斯估计的步骤:

dix-sept-概率密度估计

  • 如果概率分布形式未知,可以通过无参数技术来实现概率密度估计。常用的无参数技术主要有K近邻法、直方图技术、核密度估计等。

  • KNN估计:K近邻估计,给定x,找到其对应的区域R使其包含k个训练样本,以此计算p(x)。

  • KNN优点:可以自适应地确定x相关的区域R的范围。缺点:KNN概率密度估计不是连续函数;不是真正的概率密度表达,概率密度函数积分是无穷而不是1。

dix-huit-直方图与核密度估计

  • KNN估计的问题:仍然需要存储所有训练样;易受噪声影响。

  • 直方图的概率密度也是不连续的。

  • 直方图估计优点:减少由于噪声污染造成的估计误差;不需要存储训练样本。缺点:估计可能不准确;缺乏概率估计的自适应能力。

  • 核密度估计的核函数可以是高斯分布、均匀分布、三角分布等。

  • 核密度估计优点:自适应确定区域R的位置;使用所有训练样本,克服KNN估计存在的噪声影响;如果核函数连续,则估计的概率密度函数也是连续的。缺点:必须要存储所有训练样本。

Merci beaucoup !

posted on 2021-05-04 13:13  叶果洛夫  阅读(119)  评论(0编辑  收藏  举报

导航