ml 随机森林&集成方法及stacking模型
随机森林
在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。 而 "Random Forests" 是他们的商标。 这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合 Breimans 的 "Bootstrap aggregating" 想法和 Ho 的"random subspace method"以建造决策树的集合。
根据个体学习器的生成方式,目前的集成学习方法大致可分为两大类,即个体学习器之间存在强依赖关系,必须串行生成的序列化方法,以及个体学习器间不存在强依赖关系,可同时生成的并行化方法;
前者的代表是Boosting,后者的代表是Bagging和“随机森林”(Random
Forest)
随机森林在以决策树为基学习器构建Bagging集成的基础上,进一步在决策树的训练过程中引入了随机属性选择(即引入随机特征选择)。
简单来说,随机森林就是对决策树的集成,但有两点不同:
(2)特征选取的差异性:每个决策树的n个分类特征是在所有特征中随机选择的(n是一个需要我们自己调整的参数)
最主要的两个参数是n_estimators和max_features。 n_estimators:表示森林里树的个数。理论上是越大越好。但是伴随着就是计算时间的增长。但是并不是取得越大就会越好,预测效果最好的将会出现在合理的树个数。 max_features:随机选择特征集合的子集合,并用来分割节点。子集合的个数越少,方差就会减少的越快,但同时偏差就会增加的越快。根据较好的实践经验。如果是回归问题则: max_features=n_features,如果是分类问题则max_features=sqrt(n_features)。 如果想获取较好的结果,必须将max_depth=None,同时min_sample_split=1。 同时还要记得进行cross_validated(交叉验证),除此之外记得在random forest中,bootstrap=True。但在extra-trees中,bootstrap=False。





bagging模型python实现:
from numpy import * #载入数据 def loadSimpData(): datMat = matrix([[1., 2.1], [2., 1.1], [1.3, 1.], [1., 1.], [2., 1.]]) classLabels = [1.0, 1.0, -1.0, -1.0, 1.0] return datMat, classLabels #载入数据 def loadDataSet(fileName): numFeat = len(open(fileName).readline().split('\t')) dataMat = [] labelMat = [] fr = open(fileName) for line in fr.readlines(): lineArr = [] curLine = line.strip().split('\t') for i in range(numFeat - 1): lineArr.append(float(curLine[i])) dataMat.append(lineArr) labelMat.append(float(curLine[-1])) return dataMat, labelMat #预测分类 def stumpClassify(dataMatrix, dimen, threshVal, threshIneq): retArray = ones((shape(dataMatrix)[0], 1)) if threshIneq == 'lt': #比阀值小,就归为-1 retArray[dataMatrix[:, dimen] <= threshVal] = -1.0 else: retArray[dataMatrix[:, dimen] > threshVal] = -1.0 return retArray #建立单层决策树 def buildStump(dataArr, classLabels, D): dataMatrix = mat(dataArr) labelMat = mat(classLabels).T m, n = shape(dataMatrix) numSteps = 10.0 bestStump = {} bestClasEst = mat(zeros((m, 1))) minError = inf for i in range(n): rangeMin = dataMatrix[:, i].min() rangeMax = dataMatrix[:, i].max() stepSize = (rangeMax - rangeMin) / numSteps for j in range(-1, int(numSteps) + 1): for inequal in ['lt', 'gt'] : #less than 和greater than threshVal = (rangeMin + float(j) * stepSize) predictedVals = stumpClassify(dataMatrix, i, threshVal,inequal) errArr = mat(ones((m, 1))) errArr[predictedVals == labelMat] = 0 #分类错误的标记为1,正确为0 weightedError = D.T * errArr #增加分类错误的权重 print( "split: dim %d, thresh %.2f, thresh ineqal: %s, the weighted error is %.3f" \ % (i, threshVal, inequal, weightedError)) if weightedError < minError: minError = weightedError bestClasEst = predictedVals.copy() bestStump['dim'] = i bestStump['thresh'] = threshVal bestStump['ineq'] = inequal return bestStump, minError, bestClasEst #训练分类器 def adaBoostTrainDS(dataArr, classLabels, numIt=40): weakClassArr = [] m = shape(dataArr)[0] D = mat(ones((m, 1)) / m) #设置一样的初始权重值 aggClassEst = mat(zeros((m, 1))) for i in range(numIt): bestStump, error, classEst = buildStump(dataArr, classLabels, D) #得到“单层”最优决策树 print("D:",D.T) alpha = float(0.5 * log((1.0 - error) / max(error, 1e-16))) #计算alpha值 bestStump['alpha'] = alpha weakClassArr.append(bestStump) #存储弱分类器 print("classEst: ",classEst.T) expon = multiply(-1 * alpha * mat(classLabels).T, classEst) D = multiply(D, exp(expon)) # 更新分类器权重 D = D / D.sum() #保证权重加和为1 aggClassEst += alpha * classEst print("aggClassEst: ",aggClassEst.T) aggErrors = multiply(sign(aggClassEst) != mat(classLabels).T, ones((m, 1))) #检查分类出错的类别 errorRate = aggErrors.sum() / m print("total error: ", errorRate) if errorRate == 0.0: break return weakClassArr, aggClassEst #用训练出的分类器来作预测 def adaClassify(datToClass, classifierArr): dataMatrix = mat(datToClass) m = shape(dataMatrix)[0] aggClassEst = mat(zeros((m, 1))) for i in range(len(classifierArr)): classEst = stumpClassify(dataMatrix, classifierArr[i]['dim'], \ classifierArr[i]['thresh'], \ classifierArr[i]['ineq']) aggClassEst += classifierArr[i]['alpha'] * classEst print(aggClassEst) return sign(aggClassEst) #绘制ROC曲线 def plotROC(predStrengths, classLabels): import matplotlib.pyplot as plt cur = (1.0, 1.0) ySum = 0.0 numPosClas = sum(array(classLabels) == 1.0) yStep = 1 / float(numPosClas) xStep = 1 / float(len(classLabels) - numPosClas) sortedIndicies = predStrengths.argsort() fig = plt.figure() fig.clf() ax = plt.subplot(111) for index in sortedIndicies.tolist()[0]: if classLabels[index] == 1.0: delX = 0 delY = yStep else: delX = xStep delY = 0 ySum += cur[1] ax.plot([cur[0], cur[0] - delX], [cur[1], cur[1] - delY], c='b') cur = (cur[0] - delX, cur[1] - delY) ax.plot([0, 1], [0, 1], 'b--') plt.xlabel('False positive rate') plt.ylabel('True positive rate') plt.title('ROC curve for AdaBoost horse colic detection system') ax.axis([0, 1, 0, 1]) print("the Area Under the Curve is: ", ySum * xStep) plt.show() if __name__=='__main__': filename='C:\\Users\\Administrator\\Desktop\\data\\horseColicTraining2.txt' dataMat,classLabels=loadDataSet(filename) weakClassArr, aggClassEst=adaBoostTrainDS(dataMat,classLabels,50) plotROC(aggClassEst.T,classLabels)
集成学习分为2类: (1)个体学习器间存在强大依赖关系、必须串行生成的序列化方法,代表算法:Boosting; (2)个体学习器间不存在依赖关系、可同时生成的并行化方法,代表算法Bagging和“随机森林”RF。 1.Boosting是一族可以将若学习器提升为强学习器的算法,代表算法为AdaBoost。 该算法的工作机制:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多关注,然后基于调整后的样本分布来训练下一个基学习器。如此反复进行,直至学习器数目达到事先指定的值T,最终将这T个基学习器进行加权结合。 2.Bagging是并行式集成学习代表方法。 基于“自助采样法”(bootstrap sampling)。自助采样法机制:给定包含m个样本的数据集,我们先随机取出一个样本放入采样集中,再把该样本放回初始数据集,使得下一次采样时该样本还会被采到。这样,经过m次样本采集,我们得到包含m个样本的采样集。采样集中,有的样本出现过很多次,有的没有出现过。Bagging机制:我们采样出T个含m个样本的采样集。然后基于每个采样集训练出一个学习器,再将学习器进行结合。对分类任务使用投票法,对回归任务采用平均值法。 3.随机森林RF: 以决策树为基学习器构建Bagging集成,进一步在决策树的训练过程中引入随机属性选择。传统决策树在选择划分属性的时候是在当前节点所有的属性集合中选出一个左右属性进行划分;而在RF中,对基决策树的每个节点,先从该节点的属性集合中随机选择一个包含k个属性的子集,然后再从这个子集中选择一个最优属性用于划分。这里的参数k控制了随机性的引入程度。如果k=d(全部属性集),则基决策树的构建=传统决策树构建。如果k=1,基决策树每个节点随机选择一个属性进行划分。一般推荐k=log2d。 4.AdaBoost VS Bagging:AdaBoost只适用于二分类任务,Bagging适用于多分类、回归等任务。 5.Bagging VS 随机森林:Bagging中基学习器的“多样性”通过样本扰动(对初始训练集采样)而获得;随机森林中基学习器的“多样性”不仅来自于样本扰动,而且还可以通过随机属性扰动来获得。这使得随机森立的泛化性能可通过个体学习器之间差异程度的增加而进一步提升。随机森林的使其性能很差,但随着学习器的增加,性能很快就会变好,且强于Bagging。
import numpy as np from numpy import * from sklearn.tree import DecisionTreeRegressor import matplotlib.pyplot as plt from sklearn.ensemble import RandomForestRegressor from sklearn.model_selection import cross_val_score, ShuffleSplit import pandas as pd origin_data = pd.read_excel(r"C:\Users\***\Desktop\31天测试数据.xlsx") data_frame=origin_data rf=RandomForestRegressor() rf.fit(data_frame.ix[0:49,0:29],data_frame.ix[:,29:30]) res=rf.predict(data_frame.ix[:,1:30]) #计算平均误差构造矩阵 minus=array(res)-array(origin_data[[30]]) mape=mean(abs(minus))/mean(array(origin_data[[30]])) #作图图 plt1=plt.plot(range(0,48),res,'r',label='predict data mape={0:0.2f}%'.format(mape*100)) plt2=plt.plot(range(0,48),origin_data[[30]],'b',label='real data') plt.xlabel("dimension(total 48 dimensions)") plt.ylabel("value") plt.legend(loc="lower right") plt.show()



这里说一些自己的理解
bagging算法是并行,boosting算法是串联,而stacking模型是暴力求解。在数学建模中能用到stacking模型,下面就来具体介绍以下stacking模型。
这篇文章也不错:https://blog.csdn.net/willduan1/article/details/73618677
里面详细介绍了三种算法以及stacking的python代码实现
import numpy as np from sklearn.model_selection import KFold def get_stacking(clf, x_train, y_train, x_test, n_folds=10): """ 这个函数是stacking的核心,使用交叉验证的方法得到次级训练集 x_train, y_train, x_test 的值应该为numpy里面的数组类型 numpy.ndarray . 如果输入为pandas的DataFrame类型则会把报错""" train_num, test_num = x_train.shape[0], x_test.shape[0] second_level_train_set = np.zeros((train_num,)) second_level_test_set = np.zeros((test_num,)) test_nfolds_sets = np.zeros((test_num, n_folds)) kf = KFold(n_splits=n_folds) for i,(train_index, test_index) in enumerate(kf.split(x_train)): x_tra, y_tra = x_train[train_index], y_train[train_index] x_tst, y_tst = x_train[test_index], y_train[test_index] clf.fit(x_tra, y_tra) second_level_train_set[test_index] = clf.predict(x_tst) test_nfolds_sets[:,i] = clf.predict(x_test) second_level_test_set[:] = test_nfolds_sets.mean(axis=1) return second_level_train_set, second_level_test_set #我们这里使用5个分类算法,为了体现stacking的思想,就不加参数了 from sklearn.ensemble import (RandomForestClassifier, AdaBoostClassifier, GradientBoostingClassifier, ExtraTreesClassifier) from sklearn.svm import SVC rf_model = RandomForestClassifier() adb_model = AdaBoostClassifier() gdbc_model = GradientBoostingClassifier() et_model = ExtraTreesClassifier() svc_model = SVC() #在这里我们使用train_test_split来人为的制造一些数据 from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split iris = load_iris() train_x, test_x, train_y, test_y = train_test_split(iris.data, iris.target, test_size=0.2) train_sets = [] test_sets = [] for clf in [rf_model, adb_model, gdbc_model, et_model, svc_model]: train_set, test_set = get_stacking(clf, train_x, train_y, test_x) train_sets.append(train_set) test_sets.append(test_set) meta_train = np.concatenate([result_set.reshape(-1,1) for result_set in train_sets], axis=1) meta_test = np.concatenate([y_test_set.reshape(-1,1) for y_test_set in test_sets], axis=1) #使用决策树作为我们的次级分类器 from sklearn.tree import DecisionTreeClassifier dt_model = DecisionTreeClassifier() dt_model.fit(meta_train, train_y) df_predict = dt_model.predict(meta_test) print(df_predict)
事实上还可以构造一个stacking的类,它拥有fit和predict方法
from sklearn.model_selection import KFold from sklearn.base import BaseEstimator, RegressorMixin, TransformerMixin, clone import numpy as np #对于分类问题可以使用 ClassifierMixin class StackingAveragedModels(BaseEstimator, RegressorMixin, TransformerMixin): def __init__(self, base_models, meta_model, n_folds=5): self.base_models = base_models self.meta_model = meta_model self.n_folds = n_folds # 我们将原来的模型clone出来,并且进行实现fit功能 def fit(self, X, y): self.base_models_ = [list() for x in self.base_models] self.meta_model_ = clone(self.meta_model) kfold = KFold(n_splits=self.n_folds, shuffle=True, random_state=156) #对于每个模型,使用交叉验证的方法来训练初级学习器,并且得到次级训练集 out_of_fold_predictions = np.zeros((X.shape[0], len(self.base_models))) for i, model in enumerate(self.base_models): for train_index, holdout_index in kfold.split(X, y): self.base_models_[i].append(instance) instance = clone(model) instance.fit(X[train_index], y[train_index]) y_pred = instance.predict(X[holdout_index]) out_of_fold_predictions[holdout_index, i] = y_pred # 使用次级训练集来训练次级学习器 self.meta_model_.fit(out_of_fold_predictions, y) return self #在上面的fit方法当中,我们已经将我们训练出来的初级学习器和次级学习器保存下来了 #predict的时候只需要用这些学习器构造我们的次级预测数据集并且进行预测就可以了 def predict(self, X): meta_features = np.column_stack([ np.column_stack([model.predict(X) for model in base_models]).mean(axis=1) for base_models in self.base_models_ ]) return self.meta_model_.predict(meta_features)

浙公网安备 33010602011771号