K-临近算法(KNN)

K-临近算法(KNN)

K nearest neighbour

1、k-近邻算法原理

简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。

  • 优点:精度高、对异常值不敏感、无数据输入假定。
  • 缺点:时间复杂度高、空间复杂度高。
  • 适用数据范围:数值型和标称型。

工作原理

存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的 特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们 只选择样本数据集中前K个最相似的数据,这就是K-近邻算法中K的出处,通常K是不大于20的整数。 最后 ,选择K个最相似数据中出现次数最多的分类,作为新数据的分类

欧几里得距离(Euclidean Distance)

欧氏距离是最常见的距离度量,衡量的是多维空间中各个点之间的绝对距离。公式如下:

2、在scikit-learn库中使用k-近邻算法

  • 分类问题:from sklearn.neighbors import KNeighborsClassifier

  • 回归问题:from sklearn.neighbors import KNeighborsRegressor

1)用于分类(用鸢尾花作为示例)

导包,机器学习的算法KNN、数据鸢尾花

# scikit-learning 提供数据样本,可以供我们研究机器学习模型
# 可以使用load方法加载datasets中的各种数据
from sklearn import datasets
import matplotlib.pyplot as plt
iris = datasets.load_iris()  # load是获取本地的数据集 iris就是鸢尾花数据集
data = iris.data  # 特征值
target = iris.target  # 目标值
target_names = iris.target_names  # 目标的名字
feature_names = iris.feature_names  # 特征的名字
df = DataFrame(data,columns=feature_names)
df.plot()

画图研究前两个特征和分类之间的关系(二维散点图只能展示两个维度)

# 取出 前两个特征 特征0 作为横轴 特征1作为纵轴

X_train = data[:,:2]
y_train = target

plt.scatter(X_train[:,0],X_train[:,1],c=target)  # 特征0作为点的横坐标 特征1作为点的纵坐标 target值作为点的颜色映射
plt.xlabel(feature_names[0])
plt.ylabel(feature_names[1])

定义KNN分类器

真正判断分类的时候 肯定是用所有的4个特征 效果更好
这里只用两个特征来判断分类 也可以 但是效果肯定不如4个的好
这里之所以用两个 是为了画图 给大家展示效果

# 获取模型
from sklearn.neighbors import KNeighborsClassifier
# 使用两个特征来训练模型
# n_neighbors可以自己根据经验给定 一般给的是奇数(偶数容易造成 两种分类一样多的情况)
knn = KNeighborsClassifier(n_neighbors=7)

第一步,训练数据

knn.fit(X_train,y_train)

第二步预测数据:所预测的数据,自己创造,就是上面所显示图片的背景点

生成预测数据

# 要 取遍 平面 上 所有点
# 首先 x的范围内要取遍 y的范围内也要取遍
x = np.arange(X_train[:,0].min()-0.5,X_train[:,0].max()+0.5,0.02)  # 取遍x轴

y = np.arange(X_train[:,1].min()-0.5,X_train[:,1].max()+0.5,0.02)  # 取遍y轴

# 交叉 取遍 整个平面
X,Y = np.meshgrid(x,y)  # 返回两个 ndarray 第一个是 平面上所有点的x座标 第二个是平面上所有点的y座标

# c_函数 可以使行 变列 (我们使用这个函数 就可以 把X,Y里面的值 组合成座标点)
X_test = np.c_[X.flatten(),Y.flatten()]  # 使用reshape去变形也可以

plt.scatter(X_test[:,0],X_test[:,1])# 查看是否确定是取遍平面中的所有点

# 模型预测出来的结果 一般叫y_
y_ = knn.predict(X_test)
y_

以图形化的效果展示结果

plt.scatter(X_test[:,0],X_test[:,1],c=y_)

from matplotlib.colors import ListedColormap
# ListedColormap([])  # 创建颜色映射对象
cm1 = ListedColormap(
['#FFAAAA','#AAFFAA','#AAAAFF']
)

cm2 = ListedColormap(
['#FF0000','#00FF00','#0000FF']
)

plt.scatter(X_test[:,0],X_test[:,1],c=y_,cmap=cm1)  # c是color 会根据 传入的不同数值 去填充不同的颜色
plt.scatter(X_train[:,0],X_train[:,1],c=target,cmap=cm2)
plt.xlabel(feature_names[0])
plt.ylabel(feature_names[1])
plt.title('很棒的分类图',fontproperties='KaiTi',fontsize=45,color='r')

 

 

 

 

 

 

 

 

 

 

posted @ 2018-11-22 13:13  Sakura_L  阅读(1098)  评论(0编辑  收藏  举报