目录

绪论

真实类别预测为正例预测为反例
正例TP(真正例)FN(假反例)
反例FP(假正例)TN(真反例)
真实类别 预测为第0类 预测为第1类
第0类 0 cost01
第1类 cost10 0
制作数据集包括测试数据集以及训练数据集sklearn->train_test_split()
观察数据散点矩阵图:可以两两查看所有特征
构建模型






评估模型回归均方差E[XE(X)]2
分类均等假设错误率有多少比例的西瓜判别错误E=FP+FN(TP+TN+FP+FN)
精度有多少比例的西瓜判别正确A=TP+TN(TP+TN+FP+FN)
查全率(召回率)好瓜有多大的比例被挑出来了R=TP(TP+FN)
查准率(准确率)挑出来的西瓜有多少是好瓜P=TP(TP+FP)
P-R曲线横轴为查全率,纵轴为查准率
包住如果一个学习器的P-R曲线被另外一个学习器P-R曲线包住,那么后者的性能优于前者(此时后者的查全率跟查准率都高于前者)
不能包住平衡点查全率=查准率
F1度量查准率和查全率的调和平均
1Fβ=11+β2(1P+β2R)β=R/P
ROC与AUC曲线ROC曲线的纵轴是“真正例率”;横轴为“假正例率(False Positive Rate,简称FPR)”。AUC为曲线与坐标围成的面积
真正例率指的是真实正例中有多少被预测为正例,假正例率指的是真实反例中有多少被预测为正例。可以看出TPR和Recall的形式是一样的,就是查全率了,FPR就是保证这样的查全率你所要付出的代价,就是把多少负样本也分成了正的了。
判断标准如果学习器A的ROC曲线被学习器B完全“包住”,那么后者性能优于前者(相同的假正例率,其真正例率更高)。但是当两个曲线有交点时,则需要比较曲线下的面积AUC(Area Under ROC Curve)。
P-R曲线、ROC曲线绘制分类器应该能输出连续的值,比如在逻辑回归分类器中,其以概率的形式输出,可以设定阈值大于0.5为正样本,否则为负样本。因此设置不同的阈值就可以得到不同的曲线
非均等假设代价敏感错误率与代价曲线现实生活中会有这样的场景,不同类型造成的错误后果不同。比如门禁,错误的把可通过人员挡在门外,会使得用户体验不佳,但是如果把不可通过人员进入则会造成严重的安全事故。为了权衡不同错误导致的不同损失,可以给每个错误设立一定的权重
纵轴:
E(f;D;cost) (代价损失)     横轴 p(正例概率)
E(f;D;cost)=1m(xiD+I(f(xi)yi)×cost01+xiDI(f(xi)yi)×cost10)
欠拟合在训练数据和未知数据上表现都很差
欠拟合通常不被讨论,因为给定一个评估模型表现的指标的情况下,欠拟合很容易被发现。矫正方法是继续学习并且试着更换机器学习算法。虽然如此,欠拟合与过拟合形成了鲜明的对照。
解决方法:添加特征项,减少正则项参数
过拟合在训练数据上表现良好,在未知数据上表现差
当某个模型过度的学习训练数据中的细节和噪音,以至于模型在新的数据上表现很差,我们称过拟合发生了。这意味着训练数据中的噪音或者随机波动也被当做概念被模型学习了。而问题就在于这些概念不适用于新的数据,从而导致模型泛化性能的变差。
解决方法1)重新清洗数据,导致过拟合的一个原因也有可能是数据不纯导致的,如果出现了过拟合就需要我们重新清洗数据。
2)增大数据的训练量,还有一个原因就是我们用于训练的数据量太小导致的,训练数据占总数据的比例过小。
3)采用正则化方法。正则化方法包括L0正则、L1正则和L2正则,而正则一般是在目标函数之后加上对于的范数。但是在机器学习中一般使用L2正则,下面看具体的原因。
为什么正则化(Regularization)可以减少过拟合风险.md(限制参数W)

特征工程实例.md

数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。那特征工程到底是什么呢?顾名思义,其本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用。

样本分布的检测方法查看数据分布情况,进行柯尔莫哥洛夫-斯米尔诺夫检验
样本不平衡的解决方法欠采样 当数据量足够时就该使用此方法,保存所有稀有类样本,并在丰富类别中随机选择与稀有类别样本相等数量的样本
过采样 数据量不足时就应该使用过采样,它尝试通过增加稀有样本的数量来平衡数据集,而不是去除丰富类别的样本的数量
重复拷贝一部分样本偏少的数据多分,已达到平衡。在交叉验证之前使用过采样
合成少数类SMOT:xnew=x+rand(0,1)×x^SMOTE.md
Borderline-SMOTE算法SMOTE.md
组合/集成方法此算法类似于随机森林的Bagging方法,它把数据划分为两部分,分别是多数类样本和少数类样本,对于多数类样本Smaj,通过n次有放回抽样生成n份子集,少数类样本分别和这n份样本合并训练一个模型,这样可以得到n个模型,最终的模型是这n个模型预测结果的平均值。通过组合/集成方法解决样本不均衡.md
  • 数据预处理.md
  • 特征选择.md
      当数据预处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。通常来说,从两个方面考虑来选择特征:
    • 特征是否发散:如果一个特征不发散,例如方差接近于0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。
    • 特征与目标的相关性:这点比较显见,与目标相关性高的特征,应当优选选择。除方差法外,本文介绍的其他方法均从相关性考虑。
       
  • 降维python代码.md
    高维空间下出现的数据样本稀疏(满足不了密采样)、距离计算等困难的问题,是所有ML方法面临的共同障碍,被称为“维数灾难”。缓解维数灾难的一个重要途径是降维。通过某种数学变换将原始高维空间转变为一个低维的子空间。在子空间中样本密度大幅度提高,距离计算容易。
    PCA主成分分析.md
    核化线性降维——KPCA.md
    LDA线性判别分析.md
    奇异值分解SVD.md
    流形学习.md相关与回归.md
添加随机特征没有PCA模型性能微弱降低,采用树模型,进行的实验。树模型只识别有效特征
PCA之后模型性能显著降低,随机特征经过PCA之后变为噪声
ss处理之后没有PCA模型性能微弱降低,采用树模型,进行的实验。树模型只识别有效特征
PCA模型性能微弱降低,采用树模型,进行的实验。随即特征幅值变小,降维之后的噪声信号变弱
特征选择嵌入50%为有效特征
wrapp很少有有效特征
添加0特征没有PCA
模型性能不变
PCA之后
模型性能不变
ss处理之后没有PCA模型性能提升,效果一样
PCA
特征选择嵌入完全识别
wrapp完全识别

距离.md 距离与相似度.md

字符串差异性Hamming两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数
Levenshtein编辑距离,用来表示两个字符串的差异。编辑距离是指从字符串 A 开始,修改成字符串 B 的最小步骤数,每个以步骤中,你可以删除一个字符、修改一个字符或者新增一个字符。
Simhash将一个文档,通过hash函数转换成一个64位的字节,暂且称之为特征字,然后只需要判断他们的特征字的距离就可以判断两个文档的相似度
集合差异性Jaccard 相似指数J(A,B)=|AB||AB|
距离dj(A,B)=1J(A,B)
DiceDice(A,B)=2|AB||A|+|B|
OchiaiOchiai(A,B)=|AB||A|+|B|
相关性cosinecos(θ)=x1x2+y1y2x12+y12x22+y22
manhatton|x1x2|+|y1y2|
Minkowski (i=1n|x1y1|p)1p
euclidean(x1x2)2+(y1y2)2
pearsoni=1n(XiX¯)(YiY¯)i=1n(XiX¯)2i=1n(YiY¯)2
spearman斯皮尔曼相关系数被定义成 等级变量之间的皮尔逊相关系数
kendall0.5n(n1)

优化算法

用于求解损失函数最大最小值的方法

算法

线性回归问题.md
逻辑斯谛回归.md

  • 二项逻辑斯蒂回归模型
    P(Y|x)=ewx+b1+ewx+b
  • 多项逻辑斯谛回归模型,假设离散型随机变量Y的取值集合是{1,2,,K}
    P(Y=k|x)=ewkx+b1+k=1K1ewkx+bk=1,2,···,K1P(Y=K|x)=11+k=1K1ewkx+b

感知机.md
k近邻算法.md
决策树.md
随机森林.md
GBDT.md
朴素贝叶斯算法.md
聚类.md
HCM 与FCM聚类.md
最大熵模型.md
改进的迭代尺度法.md
SVM支持向量机.md
集成算法.md
隐含马尔科夫模型.md
神经网络——感知机与多层网络.md

模型融合.md

附录

信息论.md
导数、偏导数、梯度.md
梯度下降法.md
梯度下降法简版.md
牛顿法和牛顿拟合法.md
拉格朗日对偶性.md
EM算法.md
局部最小与全局最小.md
核函数.md
度量学习.md

参考博客

斯坦福机器学习笔记

符号 含义
R 实数集
Rn 实数向量空间,n 维欧氏空间
H 希尔伯特空间
X 输入空间
Y 输出空间
xX 输入,实例
yY 输出,实例
X 输入随机变量
Y 输出随机变量
T={(x1,y1),(x2,y2),...,(xm,ym)} 训练数据集
xk k个实例
m 样本容量
(xi,yi) i 个训练实例
x=(x(1),x(2),...,x(n))T n 维特征向量,n个特征
xi(j) 输入向量xi 的第j分量
P(X),P(Y) 概率分布
P(X,Y) 联合概率分布


附件列表

     

    posted @ 2018-08-07 16:51  堕落天使726  阅读(129)  评论(0)    收藏  举报