fbeta_score#

sklearn.metrics.fbeta_score(y_true, y_pred, *, beta, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')#

计算 F-beta 分数。

F-beta 分数是精确度和召回率加权调和平均值, 达到其最佳值为 1,最差值为 0。

beta 参数表示召回率重要性与

精确度重要性之间的比率。 beta > 1 给予召回率更多权重,而

beta < 1 则偏向精确度。例如, beta = 2 使召回率的重要性是精确度的两倍,而 beta = 0.5 则相反。

渐近地, beta -> +inf 只考虑召回率,而 beta -> 0 只考虑精确度。

F-beta 分数的公式为:

\[F_eta = \]
rac{(1 + eta^2) ext{tp}}

{(1 + eta^2) ext{tp} + ext{fp} + eta^2 ext{fn}}

其中 :math:` ext{tp}` 是真阳性的数量,:math:` ext{fp}` 是 假阳性的数量,:math:` ext{fn}` 是假阴性的数量。

对超出术语:binary 目标的支持是通过将 multiclassmultilabel 数据视为二元问题的集合来实现的,每个标签一个。对于 binary 情况,设置 average='binary' 将返回

pos_label 的 F-beta 分数。如果 average 不是 'binary' ,则 pos_label 被忽略,并计算两个类别的 F-beta 分数,然后平均或两者都返回(当 average=None 时)。类似地,对于 multiclass

multilabel 目标,所有 labels 的 F-beta 分数根据 average 参数返回或平均。使用 labels 指定要计算 F-beta 分数的标签集。

更多信息请参阅 用户指南

Parameters:
y_true1d array-like, 或标签指示器数组 / 稀疏矩阵

真实(正确)目标值。

y_pred1d array-like, 或标签指示器数组 / 稀疏矩阵

分类器返回的估计目标。

betafloat

确定召回率在综合分数中的权重。

labelsarray-like, 默认=None

average != 'binary' 时要包含的标签集,以及 average is None 时的顺序。数据中存在的标签可以被排除,例如在多类分类中排除一个“负类”。数据中不存在的标签可以被包含,并将被“分配”0 个样本。对于多标签目标,标签是列索引。默认情况下, y_truey_pred 中的所有标签按排序顺序使用。

Changed in version 0.17: 参数 labels 对多类问题进行了改进。

pos_labelint, float, bool 或 str, 默认=1

average='binary' 且数据为二元时报告的类别,否则此参数被忽略。 对于多类或多标签目标,设置 labels=[pos_label]average != 'binary' 以仅报告一个标签的指标。

average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} 或 None, 默认=’binary’

此参数对于多类/多标签目标是必需的。 如果 None ,则返回每个类别的分数。否则,这 决定了对数据执行的平均类型:

'binary' :

仅报告 pos_label 指定的类别的结果。 这仅适用于目标 ( y_{true,pred} ) 为二元的情况。

'micro' :

通过计算总的真阳性、假阴性和假阳性来全局计算指标。

'macro' :

计算每个标签的指标,并找到它们的未加权 平均值。这不考虑标签不平衡。

'weighted' :

计算每个标签的指标,并按支持度(每个标签的真实例数)加权平均。 这改变了 ‘macro’ 以考虑标签不平衡;它可能导致一个 F-score 不在精确度和召回率之间。

'samples' :

计算每个实例的指标,并找到它们的平均值(仅 对多标签分类有意义,这与 accuracy_score 不同)。

sample_weightarray-like of shape (n_samples,), 默认=None

样本权重。

zero_division{“warn”, 0.0, 1.0, np.nan}, 默认=”warn”

设置在除零时返回的值,即当所有 预测和标签均为负时。

注意: - 如果设置为 “warn”,这相当于 0,但也会引发警告。 - 如果设置为 np.nan ,此类值将从平均值中排除。

Added in version 1.3: np.nan 选项已添加。

Returns:
fbeta_scorefloat(如果 average 不是 None)或 float 数组,形状 = [n_unique_labels]

二元分类中正类的 F-beta 分数或每个类别的 F-beta 分数的加权平均值。

See also

precision_recall_fscore_support

计算精确度、召回率、F-分数和支持度。

multilabel_confusion_matrix

计算每个类别或样本的混淆矩阵。

Notes

真阳性 + 假阳性 + 假阴性 == 0 时,f-score 返回 0.0 并引发 UndefinedMetricWarning 。此行为可以通过设置 zero_division 进行修改。

References

[1]

R. Baeza-Yates 和 B. Ribeiro-Neto (2011)。 Modern Information Retrieval. Addison Wesley, pp. 327-328.

Examples

>>> import numpy as np
>>> from sklearn.metrics import fbeta_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> fbeta_score(y_true, y_pred, average='macro', beta=0.5)
0.23...
>>> fbeta_score(y_true, y_pred, average='micro', beta=0.5)
0.33...
>>> fbeta_score(y_true, y_pred, average='weighted', beta=0.5)
0.23...
>>> fbeta_score(y_true, y_pred, average=None, beta=0.5)
array([0.71..., 0.        , 0.        ])
>>> y_pred_empty = [0, 0, 0, 0, 0, 0]
>>> fbeta_score(y_true, y_pred_empty,
...             average="macro", zero_division=np.nan, beta=0.5)
0.12...