随笔分类 -  Machine Learning

摘要:GridSearchCV(estimator, param_grid, scoring=None, fit_params=None, n_jobs=1, iid=True, refit=True, cv=None, verbose=0, pre_dispatch='2*n_jobs', error_ 阅读全文
posted @ 2018-09-12 14:37 夜尽天已明 阅读(16059) 评论(2) 推荐(3)
摘要:【分类指标】 1.accuracy_score(y_true,y_pre) : 精度 2.auc(x, y, reorder=False) : ROC曲线下的面积;较大的AUC代表了较好的performance。 3.average_precision_score(y_true, y_score,  阅读全文
posted @ 2018-08-12 19:04 夜尽天已明 阅读(19587) 评论(0) 推荐(2)
摘要:【RandomForestClassifier】 参数 n_estimators : 随机森林中树的个数,即学习器的个数。 max_features : 划分叶子节点,选择的最大特征数目 n_features:在寻找最佳分割时要考虑的特征数量 max_depth : 树的最大深度,如果选择defau 阅读全文
posted @ 2018-08-09 18:22 夜尽天已明 阅读(10938) 评论(0) 推荐(2)
摘要:【AdaBoostClassifier】 Adaboost-参数: base_estimator:基分类器,默认是决策树,在该分类器基础上进行boosting,理论上可以是任意一个分类器,但是如果是其他分类器时需要指明样本权重。 n_estimators:基分类器提升(循环)次数,默认是50次,这个 阅读全文
posted @ 2018-08-08 19:04 夜尽天已明 阅读(13564) 评论(0) 推荐(0)
摘要:【LDA】线性判别分析 参数: solver:一个字符串,指定了求解最优化问题的算法,可以为如下的值。 'svd':奇异值分解。对于有大规模特征的数据,推荐用这种算法。 'lsqr':最小平方差,可以结合skrinkage参数。 'eigen' :特征分解算法,可以结合shrinkage参数。 sk 阅读全文
posted @ 2018-08-06 15:47 夜尽天已明 阅读(6191) 评论(0) 推荐(1)
摘要:DecisionTreeRegressor 树模型参数: 1.criterion gini(基尼系数) or entropy(信息熵) 2.splitter best or random 前者是在所有特征中找最好的切分点 后者是在部分特征中(数据量大的时候) 3.max_features None( 阅读全文
posted @ 2018-07-28 13:07 夜尽天已明 阅读(5084) 评论(0) 推荐(1)