fbeta_score#
- sklearn.metrics.fbeta_score(y_true, y_pred, *, beta, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')#
计算 F-beta 分数。
F-beta 分数是精确度和召回率加权调和平均值, 达到其最佳值为 1,最差值为 0。
beta
参数表示召回率重要性与- 精确度重要性之间的比率。
beta > 1
给予召回率更多权重,而 beta < 1
则偏向精确度。例如,beta = 2
使召回率的重要性是精确度的两倍,而beta = 0.5
则相反。
渐近地,
beta -> +inf
只考虑召回率,而beta -> 0
只考虑精确度。F-beta 分数的公式为:
\[F_eta = \]- rac{(1 + eta^2) ext{tp}}
{(1 + eta^2) ext{tp} + ext{fp} + eta^2 ext{fn}}
其中 :math:` ext{tp}` 是真阳性的数量,:math:` ext{fp}` 是 假阳性的数量,:math:` ext{fn}` 是假阴性的数量。
对超出术语:
binary
目标的支持是通过将 multiclass 和 multilabel 数据视为二元问题的集合来实现的,每个标签一个。对于 binary 情况,设置average='binary'
将返回pos_label
的 F-beta 分数。如果average
不是'binary'
,则pos_label
被忽略,并计算两个类别的 F-beta 分数,然后平均或两者都返回(当average=None
时)。类似地,对于 multiclass 和multilabel 目标,所有
labels
的 F-beta 分数根据average
参数返回或平均。使用labels
指定要计算 F-beta 分数的标签集。更多信息请参阅 用户指南 。
- Parameters:
- y_true1d array-like, 或标签指示器数组 / 稀疏矩阵
真实(正确)目标值。
- y_pred1d array-like, 或标签指示器数组 / 稀疏矩阵
分类器返回的估计目标。
- betafloat
确定召回率在综合分数中的权重。
- labelsarray-like, 默认=None
当
average != 'binary'
时要包含的标签集,以及average is None
时的顺序。数据中存在的标签可以被排除,例如在多类分类中排除一个“负类”。数据中不存在的标签可以被包含,并将被“分配”0 个样本。对于多标签目标,标签是列索引。默认情况下,y_true
和y_pred
中的所有标签按排序顺序使用。Changed in version 0.17: 参数
labels
对多类问题进行了改进。- pos_labelint, float, bool 或 str, 默认=1
当
average='binary'
且数据为二元时报告的类别,否则此参数被忽略。 对于多类或多标签目标,设置labels=[pos_label]
和average != 'binary'
以仅报告一个标签的指标。- average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} 或 None, 默认=’binary’
此参数对于多类/多标签目标是必需的。 如果
None
,则返回每个类别的分数。否则,这 决定了对数据执行的平均类型:'binary'
:仅报告
pos_label
指定的类别的结果。 这仅适用于目标 (y_{true,pred}
) 为二元的情况。'micro'
:通过计算总的真阳性、假阴性和假阳性来全局计算指标。
'macro'
:计算每个标签的指标,并找到它们的未加权 平均值。这不考虑标签不平衡。
'weighted'
:计算每个标签的指标,并按支持度(每个标签的真实例数)加权平均。 这改变了 ‘macro’ 以考虑标签不平衡;它可能导致一个 F-score 不在精确度和召回率之间。
'samples'
:计算每个实例的指标,并找到它们的平均值(仅 对多标签分类有意义,这与
accuracy_score
不同)。
- sample_weightarray-like of shape (n_samples,), 默认=None
样本权重。
- zero_division{“warn”, 0.0, 1.0, np.nan}, 默认=”warn”
设置在除零时返回的值,即当所有 预测和标签均为负时。
注意: - 如果设置为 “warn”,这相当于 0,但也会引发警告。 - 如果设置为
np.nan
,此类值将从平均值中排除。Added in version 1.3:
np.nan
选项已添加。
- Returns:
- fbeta_scorefloat(如果 average 不是 None)或 float 数组,形状 = [n_unique_labels]
二元分类中正类的 F-beta 分数或每个类别的 F-beta 分数的加权平均值。
See also
precision_recall_fscore_support
计算精确度、召回率、F-分数和支持度。
multilabel_confusion_matrix
计算每个类别或样本的混淆矩阵。
Notes
当
真阳性 + 假阳性 + 假阴性 == 0
时,f-score 返回 0.0 并引发UndefinedMetricWarning
。此行为可以通过设置zero_division
进行修改。References
[1]R. Baeza-Yates 和 B. Ribeiro-Neto (2011)。 Modern Information Retrieval. Addison Wesley, pp. 327-328.
Examples
>>> import numpy as np >>> from sklearn.metrics import fbeta_score >>> y_true = [0, 1, 2, 0, 1, 2] >>> y_pred = [0, 2, 1, 0, 0, 1] >>> fbeta_score(y_true, y_pred, average='macro', beta=0.5) 0.23... >>> fbeta_score(y_true, y_pred, average='micro', beta=0.5) 0.33... >>> fbeta_score(y_true, y_pred, average='weighted', beta=0.5) 0.23... >>> fbeta_score(y_true, y_pred, average=None, beta=0.5) array([0.71..., 0. , 0. ]) >>> y_pred_empty = [0, 0, 0, 0, 0, 0] >>> fbeta_score(y_true, y_pred_empty, ... average="macro", zero_division=np.nan, beta=0.5) 0.12...
- 精确度重要性之间的比率。