正例、负例、真正例、真负例的计算方法
正例,通常是指符合我们期望的、与目标概念或类别相匹配的数据。例如,如果我们正在训练一个图像识别模型来识别猫,那么正例可能是各种不同形态、颜色和品种的猫的图片。
负例,则是指不符合我们期望的、与目标概念或类别不匹配的数据。例如,在猫的识别任务中,负例可能包括狗、鸟、其他动物或非动物的图片。
真正例(True Positive):指实际为正例且被模型正确预测为正例的样本数量。真实标签是正例,模型也预测为正例。
TP = 预测为正例且实际为正例的样本数
正例(Positive):指实际为正例的样本数量。真实标签是负例,模型却预测为正例。真实标签是负例,模型却预测为正例。
P = 实际为正例的样本数
负例(Negative):指实际为负例的样本数量。真实标签是负例,模型也预测为负例。
N = 实际为负例的样本数
真负例(True Negative,TN):指实际为正例且被模型正确预测为负例例的样本数量。真实标签是正例,模型却预测为负例。
TN = 预测为负例且实际为正例的样本数
假正例(False Positive):指实际为负例但被模型错误预测为正例的样本数量。真实标签是负例,模型却预测为正例。
FP = 预测为正例但实际为负例的样本数
衡量模型的性能使用以下常见的评估方法:
准确率(Accuracy):模型正确预测的样本数占总样本数的比例。
计算公式:Accuracy = (TP + TN) / (P + N)
召回率(Recall):模型正确预测的正例样本数占实际正例样本数的比例。
计算公式:Recall = TP / P
精确率(Precision):模型正确预测为正例的样本数占预测为正例样本数的比例。
计算公式:Precision = TP / (TP + FP)
F1 分数(F1 Score):综合考虑召回率和精确率的评估指标,它是召回率和精确率的调和平均值。
计算公式:F1 Score = 2 * (Recall * Precision) / (Recall + Precision)
通过使用正例和负例进行训练,模型可以学习到目标概念或类别的特征和模式,从而提高其对新数据的分类和预测能力。在训练过程中,模型会根据输入数据与正例和负例的相似性来调整其参数,以最小化分类错误。
正例和负例的选择对于训练的效果非常重要。它们应该具有代表性、多样性和平衡性,以确保模型能够学习到足够多的信息并且不会受到偏见的影响。同时,正例和负例的数量也会影响训练的效果,通常需要足够多的数据来覆盖各种可能的情况。
联系我们
虚位以待 静候卿来