同等情况下使用sigmoid激活函数的卷积神经网络模型比使用Relu激活函数的模型慢多少?
时间: 2023-12-04 11:01:41 浏览: 73
神经网络的激活函数之sigmoid
在同等情况下,使用sigmoid激活函数的卷积神经网络模型相对于使用ReLU激活函数的模型速度会慢很多。这是因为sigmoid函数的计算量较大,且其导数需要使用sigmoid函数本身,而使用ReLU激活函数时,计算量较小,导数为常数1,因此速度更快。在实际应用中,为了提高卷积神经网络的训练速度和效率,通常会采用ReLU激活函数。
阅读全文