ReLU激活函数比Sigmoid激活函数的优势是
时间: 2023-05-27 13:02:58 浏览: 118
5. 为什么引入激活函数,为什么relu好于tanh和sigmoid1
ReLU激活函数比Sigmoid激活函数的优势如下:
1. 避免梯度消失问题:在训练深度神经网络时,使用Sigmoid激活函数容易出现梯度消失问题。而ReLU激活函数在输入为正时梯度为1,在反向传播时不会出现梯度消失问题。
2. 计算速度快:ReLU激活函数只需要进行很简单的比较运算,因此计算速度比Sigmoid激活函数快很多。
3. 收敛速度快:ReLU激活函数可以使模型更快地收敛,在训练过程中可以大幅缩短训练时间。
4. 更好的表示:ReLU激活函数具有更好的稀疏性,能够使得神经网络学习到更好的特征表示。
5. 抑制过拟合:ReLU激活函数也具有一定的抑制过拟合的作用。
阅读全文