f1_score#
- sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')#
计算F1分数,也称为平衡F-分数或F-度量。
F1分数可以解释为精确度和召回率的一种调和平均值,其中F1分数在1处达到最佳值,在0处达到最差值。精确度和召回率对F1分数的相对贡献是相等的。F1分数的公式为:
\[ext{F1} = \]rac{2 * ext{TP}}{2 * ext{TP} + ext{FP} + ext{FN}}
其中 :math:` ext{TP}` 是真阳性的数量,:math:` ext{FN}` 是假阴性的数量,:math:` ext{FP}` 是假阳性的数量。在没有真阳性、假阴性或假阳性时,F1默认计算为0.0。
对超出 binary 目标的支持是通过将 multiclass 和 multilabel 数据视为每个标签的二元问题集合来实现的。对于 binary 情况,设置
average='binary'
将返回pos_label
的F1分数。如果average
不是'binary'
,则忽略pos_label
,并计算两个类的F1分数,然后进行平均或两者都返回(当average=None
时)。类似地,对于 multiclass 和 multilabel 目标,所有labels
的F1分数根据average
参数返回或平均。使用labels
指定要计算F1分数的标签集。更多信息请参阅 用户指南 。
- Parameters:
- y_true1d array-like, 或标签指示器数组/稀疏矩阵
真实目标值(正确的)。
- y_pred1d array-like, 或标签指示器数组/稀疏矩阵
分类器返回的估计目标。
- labelsarray-like, 默认=None
当
average != 'binary'
时要包含的标签集,以及当average is None
时的顺序。可以排除数据中的标签,例如在多类分类中排除“负类”。可以包含数据中不存在的标签,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,y_true
和y_pred
中的所有标签按排序顺序使用。Changed in version 0.17: 参数
labels
对多类问题进行了改进。- pos_labelint, float, bool 或 str, 默认=1
如果
average='binary'
且数据是二元的,则报告的类,否则忽略此参数。对于多类或多标签目标,设置labels=[pos_label]
和average != 'binary'
以仅报告一个标签的指标。- average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} 或 None, 默认=’binary’
此参数对于多类/多标签目标是必需的。如果
None
,则返回每个类的分数。否则,这决定了对数据执行的平均类型:'binary'
:仅报告由
pos_label
指定的类的结果。仅在目标 (y_{true,pred}
) 是二元时适用。'micro'
:通过计算总的真阳性、假阴性和假阳性来全局计算指标。
'macro'
:计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡。
'weighted'
:计算每个标签的指标,并根据支持(每个标签的真实例数)找到它们的加权平均值。这改变了 ‘macro’ 以考虑标签不平衡;它可能导致F-分数不在精确度和召回率之间。
'samples'
:计算每个实例的指标,并找到它们的平均值(仅在多标签分类中有意义,这与
accuracy_score
不同)。
- sample_weightarray-like of shape (n_samples,), 默认=None
样本权重。
- zero_division{“warn”, 0.0, 1.0, np.nan}, 默认=”warn”
设置在除零时返回的值,即当所有预测和标签都是负数时。
注意: - 如果设置为 “warn”,这相当于0,但也会引发警告。 - 如果设置为
np.nan
,这些值将从平均值中排除。Added in version 1.3:
np.nan
选项已添加。
- Returns:
- f1_scorefloat 或 array of float, shape = [n_unique_labels]
二元分类中正类的F1分数或每个类的F1分数的加权平均值。
See also
fbeta_score
计算F-beta分数。
precision_recall_fscore_support
计算精确度、召回率、F-分数和支持度。
jaccard_score
计算Jaccard相似系数分数。
multilabel_confusion_matrix
计算每个类或样本的混淆矩阵。
Notes
当
true positive + false positive + false negative == 0
(即一个类在y_true
或y_pred
中完全不存在)时,f-score 是未定义的。在这种情况下,默认情况下f-score将设置为0.0,并引发UndefinedMetricWarning
。此行为可以通过设置zero_division
参数进行修改。References
[1]Examples
>>> import numpy as np >>> from sklearn.metrics import f1_score >>> y_true = [0, 1, 2, 0, 1, 2] >>> y_pred = [0, 2, 1, 0, 0, 1] >>> f1_score(y_true, y_pred, average='macro') 0.26... >>> f1_score(y_true, y_pred, average='micro') 0.33... >>> f1_score(y_true, y_pred, average='weighted') 0.26... >>> f1_score(y_true, y_pred, average=None) array([0.8, 0. , 0. ])
>>> # 二元分类 >>> y_true_empty = [0, 0, 0, 0, 0, 0] >>> y_pred_empty = [0, 0, 0, 0, 0, 0] >>> f1_score(y_true_empty, y_pred_empty) 0.0... >>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0) 1.0... >>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan) nan...
>>> # 多标签分类 >>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]] >>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]] >>> f1_score(y_true, y_pred, average=None) array([0.66666667, 1. , 0.66666667])