评估分类模型的指标
评估分类模型性能的方法是:混淆矩阵,其总体思路是统计A类别实例被预测(分类)为B类别的次数。召回率(Recall)和精度(Precise)是广泛用于统计学分类领域的两个度量值,用来评估分类结果的质量。
召回率(Recall Rate,也叫查全率)是检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率; 精度(Precision Rate,也叫查准率)是检索出的相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率。
一、混淆矩阵
要解释清楚精确率和召回率,得先解释混淆矩阵,二分类问题的混淆矩阵由 4 个数构成。
- 真阴性(True Negatives,TN):算法预测为负例(N),实际上也是负例(N)的个数,即算法预测对了(True);
- 真阳性(True Positives,TP):算法预测为正例(P),实际上是负例(N)的个数,即算法预测错了(False);
- 假阴性(False Negatives,FN): 算法预测为负例(N),实际上是正例(P)的个数,即算法预测错了(False);
- 假阳性(False Positives,FP):算法预测为正例(P),实际上也是正例(P)的个数,即算法预测对了(True)。
混淆矩阵定义如下:
预测值0 | 预测值1 | |
---|---|---|
真实值0 | TN | FP |
真实值1 | FN | TP |
二、召回率和精准率
对于精确率和召回率:一句话,精确率就是“查的准”,召回率就是“查的全”:
准确率(正确率):Accuracy
$准确率 = \frac{所有预测正确的样本}{总样本}=\frac{TP+TN}{TP+FN+FP+TN}$
精确率(查准率):Precision
准确率的含义是:预测为正例的那些数据里预测正确的数据个数
$precision =\frac{将正类预测为正类}{预测的正类}= \frac{TP}{TP+FP}$
召回率(查全率):Recall
召回率的含义是:真实为正例的那些数据里预测正确的数据个数
$recall =\frac{将正类预测为正类}{原本的正类} = \frac{TP}{TP+FN}$
准确率和召回率的相互关系
准确率和召回率互相影响,理想状态下肯定追求两个都高,但是实际情况是两者相互“制约”:追求准确率高,则召回率就低;追求召回率高,则通常会影响准确率。若两者都低,则一般是出了某种问题。
F1-score
精准率和召回率是此消彼长的,即精准率高了,召回率就下降,在一些场景下要兼顾精准率和召回率,就有 F1 score。
F1值是来综合评估精确率和召回率,当精确率和召回率都高时,F1也会高。