layer normalization
时间: 2023-04-30 10:03:13 浏览: 187
batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现
5星 · 资源好评率100%
Layer Normalization (层归一化) 是一种在神经网络中用于解决梯度爆炸和梯度消失问题的技巧。它对每个输入的样本,在神经网络的每一层对其输入进行规范化处理。这种方法通过重新缩放输入数据来缓解输入数据分布的不均匀程度,有助于提高网络的稳定性和效率。
阅读全文