《统计学习方法》笔记三 k近邻法

本系列笔记内容参考来源为李航《统计学习方法》

k近邻是一种基本分类与回归方法,书中只讨论分类情况。输入为实例的特征向量,输出为实例的类别。k值的选择距离度量分类决策规则是k近邻法的三个基本要素。

k近邻算法

给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的k个实例,这k个实例的多数属于某个类,就把该输入实例分为这个类。

k近邻法没有显示的学习过程。

k近邻模型

距离度量

一般为欧式距离,Lp距离、Minkowski距离等

由不同的距离度量所确定的最近邻点是不同的。

式3.5也称为切比雪夫距离。

夹角余弦

几何中用来衡量两个向量方向的相似度。

 

k值的选择

k值小时,k近邻模型更复杂,容易发生过拟合;k值大时,模型更简单。k值的选择反映了对近似误差与估计误差之间的权衡,通常由交叉验证选择最优的k。

分类决策规则

常用的分类决策规则是多数表决,对应与经验风险最小化。

k近邻法的实现:kd树

构造kd树算法如下:

 

搜索kd树即回溯法:

 

posted @ 2018-10-27 10:34  闪电gogogo  阅读(388)  评论(0编辑  收藏  举报