f1_score#

sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')#

计算F1分数,也称为平衡F-分数或F-度量。

F1分数可以解释为精确度和召回率的一种调和平均值,其中F1分数在1处达到最佳值,在0处达到最差值。精确度和召回率对F1分数的相对贡献是相等的。F1分数的公式为:

\[ext{F1} = \]

rac{2 * ext{TP}}{2 * ext{TP} + ext{FP} + ext{FN}}

其中 :math:` ext{TP}` 是真阳性的数量,:math:` ext{FN}` 是假阴性的数量,:math:` ext{FP}` 是假阳性的数量。在没有真阳性、假阴性或假阳性时,F1默认计算为0.0。

对超出 binary 目标的支持是通过将 multiclassmultilabel 数据视为每个标签的二元问题集合来实现的。对于 binary 情况,设置 average='binary' 将返回 pos_label 的F1分数。如果 average 不是 'binary' ,则忽略 pos_label ,并计算两个类的F1分数,然后进行平均或两者都返回(当 average=None 时)。类似地,对于 multiclassmultilabel 目标,所有 labels 的F1分数根据 average 参数返回或平均。使用 labels 指定要计算F1分数的标签集。

更多信息请参阅 用户指南

Parameters:
y_true1d array-like, 或标签指示器数组/稀疏矩阵

真实目标值(正确的)。

y_pred1d array-like, 或标签指示器数组/稀疏矩阵

分类器返回的估计目标。

labelsarray-like, 默认=None

average != 'binary' 时要包含的标签集,以及当 average is None 时的顺序。可以排除数据中的标签,例如在多类分类中排除“负类”。可以包含数据中不存在的标签,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下, y_truey_pred 中的所有标签按排序顺序使用。

Changed in version 0.17: 参数 labels 对多类问题进行了改进。

pos_labelint, float, bool 或 str, 默认=1

如果 average='binary' 且数据是二元的,则报告的类,否则忽略此参数。对于多类或多标签目标,设置 labels=[pos_label]average != 'binary' 以仅报告一个标签的指标。

average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} 或 None, 默认=’binary’

此参数对于多类/多标签目标是必需的。如果 None ,则返回每个类的分数。否则,这决定了对数据执行的平均类型:

'binary' :

仅报告由 pos_label 指定的类的结果。仅在目标 ( y_{true,pred} ) 是二元时适用。

'micro' :

通过计算总的真阳性、假阴性和假阳性来全局计算指标。

'macro' :

计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡。

'weighted' :

计算每个标签的指标,并根据支持(每个标签的真实例数)找到它们的加权平均值。这改变了 ‘macro’ 以考虑标签不平衡;它可能导致F-分数不在精确度和召回率之间。

'samples' :

计算每个实例的指标,并找到它们的平均值(仅在多标签分类中有意义,这与 accuracy_score 不同)。

sample_weightarray-like of shape (n_samples,), 默认=None

样本权重。

zero_division{“warn”, 0.0, 1.0, np.nan}, 默认=”warn”

设置在除零时返回的值,即当所有预测和标签都是负数时。

注意: - 如果设置为 “warn”,这相当于0,但也会引发警告。 - 如果设置为 np.nan ,这些值将从平均值中排除。

Added in version 1.3: np.nan 选项已添加。

Returns:
f1_scorefloat 或 array of float, shape = [n_unique_labels]

二元分类中正类的F1分数或每个类的F1分数的加权平均值。

See also

fbeta_score

计算F-beta分数。

precision_recall_fscore_support

计算精确度、召回率、F-分数和支持度。

jaccard_score

计算Jaccard相似系数分数。

multilabel_confusion_matrix

计算每个类或样本的混淆矩阵。

Notes

true positive + false positive + false negative == 0 (即一个类在 y_truey_pred 中完全不存在)时,f-score 是未定义的。在这种情况下,默认情况下f-score将设置为0.0,并引发 UndefinedMetricWarning 。此行为可以通过设置 zero_division 参数进行修改。

References

Examples

>>> import numpy as np
>>> from sklearn.metrics import f1_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> f1_score(y_true, y_pred, average='macro')
0.26...
>>> f1_score(y_true, y_pred, average='micro')
0.33...
>>> f1_score(y_true, y_pred, average='weighted')
0.26...
>>> f1_score(y_true, y_pred, average=None)
array([0.8, 0. , 0. ])
>>> # 二元分类
>>> y_true_empty = [0, 0, 0, 0, 0, 0]
>>> y_pred_empty = [0, 0, 0, 0, 0, 0]
>>> f1_score(y_true_empty, y_pred_empty)
0.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0)
1.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan)
nan...
>>> # 多标签分类
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> f1_score(y_true, y_pred, average=None)
array([0.66666667, 1.        , 0.66666667])