感知机分类(perceptron classification)

概述

在机器学习中,感知机(perceptron)是二分类的线性分类模型,属于监督学习算法。输入为实例的特征向量,输出为实例的类别(取+1和-1)。

感知机对应于输入空间中将实例划分为两类的分离超平面。感知机旨在求出该超平面,为求得超平面导入了基于误分类的损失函数,利用梯度下降法 对损失函数进行最优化(最优化)。

感知机的学习算法具有简单而易于实现的优点,分为原始形式和对偶形式。感知机预测是用学习得到的感知机模型对新的实例进行预测的,因此属于判别模型。

感知机由Rosenblatt于1957年提出的,是神经网络和支持向量机的基础。

定义

假设输入空间(特征向量)为,输出空间为
输入
表示实例的特征向量,对应于输入空间的点;
输出
表示示例的类别。
由输入空间到输出空间的函数为

称为感知机。其中,参数w叫做权值向量(weight),b称为偏置(bias)。表示w和x的点积

sign为符号函数,即

感知机算法就是要找到一个超平面将我们的数据分为两部分。
超平面就是维度比我们当前维度空间小一个维度的空间, 例如:我们当前的维度是二维的空间(由数据维度确定,x有多少列就有多大的维度),那么超平面就是一维的,即一条直线。如下图

算法步骤

数据集:


其中:
我们现在就是要找到一个超平面:

将数据集划分为正负两部分:

如果能得到这样一个超平面,则称我们的数据集T是线性可分的, 否则称数据集T是线性不可分的

损失函数

感知机的损失函数是误分类点到超平面S的总距离

对于误分类的点:

假设误分类点的集合为M,所有误分类点到超平面S的距离:

所以感知机的损失函数为:

我们的问题就是要找到最优的w, b, 使得损失函数最小。

梯度下降算法

我们采用梯度下降算法:
梯度下降法就是利用导数,然后沿着导数的方向下降, 最后得到最优的解, 如图:

首先选择w0, b0,一般初始化为0.
然后分别对w, b求导:

选择合适的步长, 我们称为学习率。
更新w,b:

这样, 通过不断的更新w, b, 减小了损失函数,我们得到了最优的解

感知机算法代码

代码在这里,翻我牌子
制作数据

%pylab
%matplotlib inline
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
iris = load_iris()#导入iris数据集

data = iris.data
data = data[:100]
labels = iris.target
labels = labels[:100]
feature_name = iris.feature_names
print("feature_name", feature_name)

#我们选择了sepal length (cm)', 'sepal width (cm)',并且更改了labels
data = data[:, 0:2]
labels[labels == 0] = -1
feature_name = feature_name[:2]

X_train, X_test, y_train, y_test = train_test_split(data, labels)#划分数据集

定义类

class my_perceptron():
    #初始化w,b,学习率
    def __init__(self, lr=0.01):
        self.w = 0
        self.b = 0
        self.lr = lr
    
    def fit(self, X, y):
        w = np.zeros(len(X[0]))
        b = 0
        lr = self.lr
        all_true = False
        #只要存在误分类点就继续循环
        while not all_true:
            all_true = True
            for i in range(len(X)):
                #误分类条件
                if y[i]*(np.dot(w, X[i]) + b) <= 0:
                    all_true = False
                    #更新w,b
                    w += lr*y[i]*X[i]
                    b += lr*y[i]
        
        self.w = w
        self.b = b
    
    def predict(self, X):
        res = []
        for i in range(len(X)):
            if np.dot(self.w, X[i]) + b <= 0:
                res.append(-1)
            else:
                res.append(1)
        return np.array(res)
    
    def score(self, y_predict, y_test):
        return np.mean(y_predict == y_test)

代码测试

clf = my_perceptron()
clf.fit(X_train, y_train)
w = clf.w
b = clf.b

#绘图查看
plt.scatter(train[:50, 0], train[:50, 1])
plt.scatter(train[50:-1, 0], train[50:-1, 1])
xx = np.linspace(train[:, 0].min(), train[:, 0].max(), 100)
yy = -(w[0]*xx + b)/w[1]
plt.plot(xx, yy)
plt.xlabel(feature_names[0])
plt.ylabel(feature_names[1])

posted @ 2019-11-13 09:52  hichens  阅读(4642)  评论(1编辑  收藏  举报