机器学习模型评估指标

1. 分类模型

对于二分类模型,主要评估指标有 AUC、Precision、Recall、F-measure、Accuracy。下面对每个指标进行详细的解释


TP: 预测为正类,实际为正类

FP:预测为正类,实际为负类

TN:预测为负类,实际为负类

FN:预测为负类,实际为正类

对应的

TPR = TP/(TP+FN)    真是正样本中预测为正样本的比例

FPR = FP / (FP+TN)  真是负样本中预测为正样本的比例

FNR = FN /(TP+FN)

TNR = TN/(TN+FP)

准确率 Accuracy

准确率就是预测正确的正负样本占总样本的数量

Accuracy = (TP + TN) /(TP + FP + TN + FN)

精确率(Precision)

precision 预测为正的正样本中占所以预测为正的比例

Precision = TP /(TP + FP)

召回率(recall)

所以的正样本中,能够预测为正本的比例

recall = TP/(TP + FN)

F-measure  

F值是精确率和召回率的调和值,多数推荐系统使用F 值昨为评估指标

F-measure = 2 * (precision * recall) /(precision + recall)

 

ROC 曲线

ROC 曲线的横纵坐标分别为FPR,TPR

ROC 曲线的画法

假设已经得出一系列样本被划分为正类的概率,然后按照大小排序,假设“Score”表示每个测试样本属于正样本的概率。从高到低,依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本。

 

 AUC(Area under Curve):Roc曲线下的面积,介于0.1和1之间。Auc作为数值可以直观的评价分类器的好坏,值越大越好。

AUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。

ROC ,AUC 的优点

为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变换的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现样本类不平衡,即正负样本比例差距较大,而且测试数据中的正负样本也可能随着时间变化。

2. 回归模型

回归模型的指标主要有MSE RMSE

 

posted @ 2019-10-21 17:12  阳光老男孩  阅读(262)  评论(0)    收藏  举报