The name tf.losses.sparse_softmax_cross_entropy is deprecated. Please use tf.compat.v1.losses.sparse_softmax_cross_entropy instead.
时间: 2024-01-14 15:19:56 浏览: 747
TensorFlow tf.nn.softmax_cross_entropy_with_logits的用法
5星 · 资源好评率100%
这是一个警告信息,意味着tf.losses.sparse_softmax_cross_entropy已经被弃用,建议使用tf.compat.v1.losses.sparse_softmax_cross_entropy。这是因为TensorFlow 2.0中已经删除了tf.losses模块,而是将其移动到了tf.compat.v1.losses模块中。如果你使用的是TensorFlow 1.x版本,则可以继续使用tf.losses.sparse_softmax_cross_entropy,但是如果你使用的是TensorFlow 2.0版本,则必须使用tf.compat.v1.losses.sparse_softmax_cross_entropy。下面是一个使用tf.compat.v1.losses.sparse_softmax_cross_entropy的例子:
```python
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
logits = tf.constant([0.1,0.1,0.8])
labels = tf.constant([2])
y = tf.compat.v1.losses.sparse_softmax_cross_entropy(labels=labels, logits=logits)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(y)) # 输出:0.68972665
```
阅读全文