学习笔记——k近邻法

对新的输入实例,在训练数据集中找到与该实例最邻近的\(k\)个实例,这\(k\)个实例的多数属于某个类,就把该输入实例分给这个类。

\(k\) 近邻法(\(k\)-nearest neighbor, \(k\)-NN)是一种基本分类与回归方法,这里只讨论分类问题中的\(k\)-NN。

三要素:

  • \(k\)值的选择
  • 距离度量
  • 分类决策规则

\(k\)近邻算法


输入:训练数据集\(T = \{ (x_1,y_1), (x_2,y_2), \cdot \cdot \cdot , (x_N,y_N) \}\),这里的\(y_i\)是实例的类别;实例特征向量\(x\)
输出:实例\(x\)所属的类\(y\)

  1. 根据给定的距离度量,在训练集中找出与\(x\)最邻近的\(k\)个点,涵盖这\(k\)个点的\(x\)的邻域记作\(N_k(x)\)
  2. \(N_k(x)\)中根据分类决策规则(如多数表决)决定\(x\)的类别\(y\)
$$ y = \arg \max_{c_j} \sum_{x_i \in N_k(x)} I \left(y_i = c_j \right), i = 1,2, \cdot \cdot \cdot, K $$

其中,\(I\)为指示函数,等于的时候为1,否则为0。

\(k\)近邻模型


  • 模型
    每个训练实例附近的cell一起构成了对特征空间的一个划分。
  • 距离度量
    欧氏距离,或者更一般的闵可夫斯基距离等都可以。
  • \(k\)值的选择
    \(k\)值的减小意味着整体模型的=变得复杂,容易过拟合。通常采用交叉验证法来选取最优的\(k\)值。
  • 分类决策规则
    往往使用多数表决,对应于经验风险最小化。

\(k\)近邻法的实现:\(kd\)


线性扫描(linear scan)算出所有的距离,简单但是耗时。可以使用\(kd\)树这种数据结构来提高效率,它可以表示对\(k\)维空间的一个划分,\(kd\)树的每个节点对应一个\(k\)维超矩形区域。

构造平衡\(kd\)

  • 输入:\(k\)维空间数据集\(T={x_1, x_2,...,x_N}\)
  • 输出:\(kd\)
  1. 开始:构造根节点
    选择\(x^{(1)}\)为坐标轴,以所有实例\(x^{(1)}\)坐标的中位数为切分点,这个超平面将空间切分为两个子区域,落在这个超平面上的实例点保存在根节点。
  2. 重复:一个一个地细分,切分成子区域
    依次循环往后选择坐标轴。
  3. 直到子区域没有实例存在时停止

搜索\(kd\)

  • 输入:已构造的\(kd\)树;目标点\(x\)
  • 输出:\(x\)的最近邻
  1. 找到包含\(x\)的叶结点
    从根节点出发,向左或向右移动,直到找到叶结点。
  2. 以此叶结点为“当前最近点”
  3. 递归地向上回退,在每个结点进行以下操作:
    • 若该结点更近,则以该点为“当前最近点”
    • 检查该结点的另一子结点对应的区域内是否有更近的点:
      如果这个区域有可能,也就是另一子节点下边可能存在更近的点:\(rightarrow\)递归进行最近邻搜索。
      否则向上回退。
  4. 回退到根结点时结束,最后的“当前最近点”即为\(x\)的最近邻。

(注:本文为读书笔记与总结,侧重算法原理,来源为[《统计学习方法》](http://book.douban.com/subject/10590856/)一书第三章)
作者:[rubbninja](http://www.cnblogs.com/rubbninja/) 出处:[http://www.cnblogs.com/rubbninja/](http://www.cnblogs.com/rubbninja/) 关于作者:目前主要研究领域为机器学习与无线定位技术,欢迎讨论与指正!
posted @ 2015-10-21 19:25  rubbninja  阅读(687)  评论(0编辑  收藏  举报