BinaryCrossentropy
classkeras.metrics.BinaryCrossentropy(
name="binary_crossentropy", dtype=None, from_logits=False, label_smoothing=0
)
计算标签和预测之间的交叉熵指标.
这是在只有两个标签类别(0 和 1)时使用的交叉熵指标类.
参数:
name: (可选) 指标实例的字符串名称.
dtype: (可选) 指标结果的数据类型.
from_logits: (可选) 输出是否预期为 logits 张量.默认情况下,我们认为输出编码了一个概率分布.
label_smoothing: (可选) [0, 1]
范围内的浮点数.当 > 0 时,标签值会被平滑,意味着对标签值的置信度会放松.例如,label_smoothing=0.2
意味着我们将使用 0.1 作为标签 "0" 的值,0.9 作为标签 "1" 的值.
示例:
>>> m = keras.metrics.BinaryCrossentropy()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]])
>>> m.result()
0.81492424
>>> m.reset_state()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]],
... sample_weight=[1, 0])
>>> m.result()
0.9162905
与 compile()
API 一起使用:
model.compile(
optimizer='sgd',
loss='mse',
metrics=[keras.metrics.BinaryCrossentropy()])
CategoricalCrossentropy
classkeras.metrics.CategoricalCrossentropy(
name="categorical_crossentropy",
dtype=None,
from_logits=False,
label_smoothing=0,
axis=-1,
)
计算标签和预测之间的交叉熵指标.
这是一个用于多个标签类别(2个或更多)时的交叉熵指标类.它假设标签是独热编码的,
例如,当标签值为 [2, 0, 1]
时,y_true
为 [[0, 0, 1], [1, 0, 0], [0, 1, 0]]
.
参数:
name: (可选) 指标实例的字符串名称.
dtype: (可选) 指标结果的数据类型.
from_logits: (可选) 输出是否预期为logits张量.默认情况下,我们考虑输出
编码了一个概率分布.
label_smoothing: (可选) [0, 1]
范围内的浮点数.
当 > 0 时,标签值会被平滑处理,意味着标签值的置信度会被放宽.例如,label_smoothing=0.2
意味着
我们将使用 0.1 作为标签 "0" 的值,0.9 作为标签 "1" 的值.
axis: (可选) 默认为 -1
.
计算熵的维度.
示例:
>>> # EPSILON = 1e-7, y = y_true, y` = y_pred
>>> # y` = clip_ops.clip_by_value(output, EPSILON, 1. - EPSILON)
>>> # y` = [[0.05, 0.95, EPSILON], [0.1, 0.8, 0.1]]
>>> # xent = -sum(y * log(y'), axis = -1)
>>> # = -((log 0.95), (log 0.1))
>>> # = [0.051, 2.302]
>>> # Reduced xent = (0.051 + 2.302) / 2
>>> m = keras.metrics.CategoricalCrossentropy()
>>> m.update_state([[0, 1, 0], [0, 0, 1]],
... [[0.05, 0.95, 0], [0.1, 0.8, 0.1]])
>>> m.result()
1.1769392
>>> m.reset_state()
>>> m.update_state([[0, 1, 0], [0, 0, 1]],
... [[0.05, 0.95, 0], [0.1, 0.8, 0.1]],
... sample_weight=np.array([0.3, 0.7]))
>>> m.result()
1.6271976
使用 compile()
API 的示例:
model.compile(
optimizer='sgd',
loss='mse',
metrics=[keras.metrics.CategoricalCrossentropy()])
SparseCategoricalCrossentropy
classkeras.metrics.SparseCategoricalCrossentropy(
name="sparse_categorical_crossentropy", dtype=None, from_logits=False, axis=-1
)
计算标签和预测之间的交叉熵指标.
当有两个或更多标签类别时,请使用此交叉熵指标.
它期望标签以整数形式提供.如果您想提供标签
以独热编码形式,请使用 CategoricalCrossentropy
指标代替.
对于 y_pred
应该有 num_classes
个浮点值每个特征,
对于 y_true
应该有一个浮点值每个特征.
参数:
name: (可选) 指标实例的字符串名称.
dtype: (可选) 指标结果的数据类型.
from_logits: (可选) 输出是否预期
为 logits 张量.默认情况下,我们认为输出
编码了一个概率分布.
axis: (可选) 默认为 -1
.
计算熵的维度.
示例:
示例:
>>> # y_true = one_hot(y_true) = [[0, 1, 0], [0, 0, 1]]
>>> # logits = log(y_pred)
>>> # softmax = exp(logits) / sum(exp(logits), axis=-1)
>>> # softmax = [[0.05, 0.95, EPSILON], [0.1, 0.8, 0.1]]
>>> # xent = -sum(y * log(softmax), 1)
>>> # log(softmax) = [[-2.9957, -0.0513, -16.1181],
>>> # [-2.3026, -0.2231, -2.3026]]
>>> # y_true * log(softmax) = [[0, -0.0513, 0], [0, 0, -2.3026]]
>>> # xent = [0.0513, 2.3026]
>>> # Reduced xent = (0.0513 + 2.3026) / 2
>>> m = keras.metrics.SparseCategoricalCrossentropy()
>>> m.update_state([1, 2],
... [[0.05, 0.95, 0], [0.1, 0.8, 0.1]])
>>> m.result()
1.1769392
>>> m.reset_state()
>>> m.update_state([1, 2],
... [[0.05, 0.95, 0], [0.1, 0.8, 0.1]],
... sample_weight=np.array([0.3, 0.7]))
>>> m.result()
1.6271976
与 compile()
API 一起使用:
model.compile(
optimizer='sgd',
loss='mse',
metrics=[keras.metrics.SparseCategoricalCrossentropy()])
KLDivergence
classkeras.metrics.KLDivergence(name="kl_divergence", dtype=None)
计算 y_true
和 y_pred
之间的 Kullback-Leibler 散度度量.
公式:
metric = y_true * log(y_true / y_pred)
y_true
和 y_pred
应为概率分布,值在 0 和 1 之间.它们将被裁剪到 [0, 1]
范围内.
参数: name: (可选) 度量实例的字符串名称. dtype: (可选) 度量结果的数据类型.
示例:
>>> m = keras.metrics.KLDivergence()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]])
>>> m.result()
0.45814306
>>> m.reset_state()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]],
... sample_weight=[1, 0])
>>> m.result()
0.9162892
与 compile()
API 一起使用:
model.compile(optimizer='sgd',
loss='mse',
metrics=[keras.metrics.KLDivergence()])
Poisson
classkeras.metrics.Poisson(name="poisson", dtype=None)
计算 y_true
和 y_pred
之间的泊松度量.
公式:
metric = y_pred - y_true * log(y_pred)
参数: name: (可选) 度量实例的字符串名称. dtype: (可选) 度量结果的数据类型.
示例:
示例:
>>> m = keras.metrics.Poisson()
>>> m.update_state([[0, 1], [0, 0]], [[1, 1], [0, 0]])
>>> m.result()
0.49999997
>>> m.reset_state()
>>> m.update_state([[0, 1], [0, 0]], [[1, 1], [0, 0]],
... sample_weight=[1, 0])
>>> m.result()
0.99999994
与 compile()
API 一起使用:
model.compile(optimizer='sgd',
loss='mse',
metrics=[keras.metrics.Poisson()])