batchnorm layernorm
时间: 2023-04-29 14:05:46 浏览: 115
batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现
5星 · 资源好评率100%
BatchNorm和LayerNorm都是深度学习中常用的标准化方法。BatchNorm主要用于卷积神经网络中,对每一个batch的数据进行归一化处理,使得输入到激活函数中的数据更为稳定,避免梯度消失等问题。LayerNorm主要用于循环神经网络中,对每一个时间步的数据进行归一化处理,同样是为了避免梯度消失等问题。两者的主要区别在于归一化的维度不同,BatchNorm是对batch维度进行归一化,而LayerNorm是对每一个特征维度进行归一化。
阅读全文