CrossEntropyLoss(softmax=False)报错没有softmax这个参数
时间: 2023-11-26 15:25:35 浏览: 66
7_交叉熵_softmax_损失函数loss_分析
5星 · 资源好评率100%
在PyTorch中,`CrossEntropyLoss`的默认行为是进行softmax操作,因此不需要设置`softmax`参数。如果你想要禁用softmax操作,则可以将`softmax`参数设置为`False`。但是,这个参数只在TensorFlow中的`categorical_crossentropy`函数中存在。在PyTorch中,如果你想自定义损失函数的话,可以使用`nn.NLLLoss`和`nn.LogSoftmax`来手动实现CrossEntropyLoss。
阅读全文