mean_linex_error#

mean_linex_error(y_true, y_pred, a=1.0, b=1.0, horizon_weight=None, multioutput='uniform_average', **kwargs)[源代码][源代码]#

计算平均线误差。

输出是非负浮点数。最佳值为 0.0。

许多预测损失函数(如 [R604c24f92071-1] 中讨论的那些)假设过度预测和不足预测应受到相同的惩罚。然而,这可能与预测用户实际面临的成本不一致。当不足预测和过度预测的成本不同时,非对称损失函数非常有用。

linex 误差函数通过大约线性地惩罚阈值一侧的误差,同时大约指数地惩罚另一侧的误差来解决这个问题。

参数:
y_truepd.Series, pd.DataFrame 或形状为 (fh,) 或 (fh, n_outputs) 的 np.array,其中 fh 是预测范围

地面真值(正确的)目标值。

y_predpd.Series, pd.DataFrame 或形状为 (fh,) 或 (fh, n_outputs) 的 np.array,其中 fh 是预测范围

预测值。

aint 或 float

控制过度预测或不足预测是受到近似线性还是指数惩罚。如果 a > 0,则负误差(过度预测)近似线性惩罚,正误差(不足预测)近似指数惩罚。如果 a < 0,则情况相反。

bint 或 float

应用于计算误差的乘法惩罚。

horizon_weight形状为 (fh,) 的类数组,默认=None

预测范围权重。

多输出{‘raw_values’, ‘uniform_average’} 或形状为 (n_outputs,) 的类数组对象,默认=’uniform_average’

定义如何聚合多元(多输出)数据的度量。如果是一个数组,值用作平均误差的权重。如果是’raw_values’,则在多输出输入的情况下返回所有误差。如果是’uniform_average’,则所有输出的误差以均匀权重平均。

返回:
asymmetric_loss浮动

使用错误的不对称惩罚的损失。如果 multioutput 是 ‘raw_values’,则不对称损失将分别返回每个输出的损失。如果 multioutput 是 ‘uniform_average’ 或一个权重 ndarray,则将返回所有输出错误的不对称损失的加权平均值。

注释

计算公式为 b * (np.exp(a * error) - a * error - 1),其中 a != 0 且 b > 0,根据 [2]_ 中的公式。

参考文献

[1]

Hyndman, R. J 和 Koehler, A. B. (2006)。《另一种预测准确度量方法》,《国际预测杂志》,第22卷,第4期。

[1]

Diebold, Francis X. (2007). “预测要素 (第4版)”, Thomson, South-Western: 美国俄亥俄州。

示例

>>> import numpy as np
>>> from sktime.performance_metrics.forecasting import mean_linex_error
>>> y_true = np.array([3, -0.5, 2, 7, 2])
>>> y_pred = np.array([2.5, 0.0, 2, 8, 1.25])
>>> mean_linex_error(y_true, y_pred)  
0.19802627763937575
>>> mean_linex_error(y_true, y_pred, b=2)  
0.3960525552787515
>>> mean_linex_error(y_true, y_pred, a=-1)  
0.2391800623225643
>>> y_true = np.array([[0.5, 1], [-1, 1], [7, -6]])
>>> y_pred = np.array([[0, 2], [-1, 2], [8, -5]])
>>> mean_linex_error(y_true, y_pred)  
0.2700398392309829
>>> mean_linex_error(y_true, y_pred, a=-1)  
0.49660966225813563
>>> mean_linex_error(y_true, y_pred, multioutput='raw_values')  
array([0.17220024, 0.36787944])
>>> mean_linex_error(y_true, y_pred, multioutput=[0.3, 0.7])  
0.30917568000716666