最近看论文实验时忘记了 “Recall” 这个评价指标是干什么用的,所有简单地回顾一下,用最简单方法加深一下记忆
首先得先回顾一下分类结果的混淆矩阵,忘记的朋友可以参考我这篇:分类结果的混淆矩阵
查准率(Precision): P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP 【正确的分类样本中的正例个数】与 【所有预测为正例的样本个数】之比,分子好理解,但是分母容易与查全率(Recall)中的分母混淆!所以要记住:查准率是对预测结果的一个评价指标,不要去考虑真实情况如何,分母就只包括预测的结果,即混淆矩阵的第一列上,所以分母就包括:被分类正确的正例(TP)和被分类错误的正例(FP)
查全率(Recall): R = T P T P + F N R=\frac{TP}{TP+FN} R=TP+FNTP 【正确的分类样本中的正例个数】与 【真实正例的样本个数】之比,同样分子好理解,分布母则容易与查准率(Precision)中的分母混淆!所以要记住:查全率是模型从真实正例样本中揪出来的正例个数,全部注意力要集中在真实情况的正例上,即混淆矩阵的第一行上,所以分母就包括:被分类正确的正例(TP)和被分类错误的负例(FN)
需要注意的是:查准率(Precision)和查全率(Recall)一般不会保持同步高或低,数值变化趋势一般相反(西瓜中也指出:一般来说,查准率高,查全率往往偏低;而查全率高时,查准率往往偏低)
F1 度量: F 1 = 2 × P × R P + R = 2 × T P 样 例 总 数 + T P − T N F1=\frac{2\times P\times R}{P+R}=\frac{2\times TP}{样例总数+TP-TN} F1=P+R2×P×R=样例总数+TP−TN2×TP 有时,评价模型时更关注查准率(Precision),有时更关注查全率(Recall),F1 度量就是基于 查准率(Precision) 和 查全率(Recall) 的调和平均定义的,从而表达出对 P 和 R 的不同偏好。