tf.losses.sparse_softmax_cross_entropy 已被弃用。请使用 tf.compat.v1.losses.sparse_softmax_cross_entropy 代替。
时间: 2024-02-23 16:54:41 浏览: 405
TensorFlow tf.nn.softmax_cross_entropy_with_logits的用法
5星 · 资源好评率100%
tf.losses.sparse_softmax_cross_entropy 是 TensorFlow 1.x 版本中的一个函数,用于计算稀疏分类问题的交叉熵损失。然而,在 TensorFlow 2.x 版本中,该函数已被弃用。
为了向后兼容,可以使用 tf.compat.v1.losses.sparse_softmax_cross_entropy 函数来替代 tf.losses.sparse_softmax_cross_entropy。tf.compat.v1 是 TensorFlow 2.x 中用于向后兼容 TensorFlow 1.x 的模块。
tf.compat.v1.losses.sparse_softmax_cross_entropy 函数的使用方式与 tf.losses.sparse_softmax_cross_entropy 相同,都是计算稀疏分类问题的交叉熵损失。你可以通过传入真实标签和预测概率来计算损失。
阅读全文