BatchNormalization
时间: 2023-06-19 21:04:37 浏览: 68
Batch Normalization
BatchNormalization(批归一化)是一种在深度神经网络中用于加速收敛和提高模型精度的技术。它通过对每个 mini-batch 的输入进行归一化,即将其缩放到均值为0,方差为1的分布上,从而使得网络更容易训练。BatchNormalization还引入了两个可学习的参数,用于恢复模型的表达能力。BatchNormalization可以被添加到神经网络中的任何层中,通常在激活函数之前。
阅读全文