怎么去掉CrossEntropyLoss()中softmax的部分
时间: 2024-05-13 07:20:01 浏览: 39
基于MSELoss()与CrossEntropyLoss()的区别详解
如果您想在PyTorch中使用CrossEntropyLoss()但不想在损失函数中使用softmax,可以使用nn.CrossEntropyLoss()代替nn.LogSoftmax()和nn.NLLLoss()的组合。nn.CrossEntropyLoss()将对输入进行softmax并计算交叉熵损失。
如果您想更改默认行为并禁用softmax,可以将参数"nn.CrossEntropyLoss()"中的"softmax"设置为False。例如:
```
loss_fn = nn.CrossEntropyLoss(softmax=False)
```
这将禁用softmax并在损失计算中直接使用未归一化的输出值。
阅读全文