batch normalization layer
时间: 2023-04-21 14:01:01 浏览: 121
batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现
5星 · 资源好评率100%
批量归一化层(Batch Normalization Layer)是一种在深度神经网络中常用的技术,用于加速训练过程和提高模型的泛化能力。它通过对每个批次的输入数据进行归一化,使得网络中每一层的输入数据分布更加稳定,从而加速训练过程。此外,批量归一化层还可以减少过拟合现象的发生,提高模型的泛化能力。
阅读全文