layer norm
时间: 2023-09-23 21:07:52 浏览: 124
Layer Norm是一种用于神经网络中的归一化技术,它在每个单词的embedding上进行归一化,而不是对整个序列的所有单词embedding向量进行归一化。这是因为每个单词的embedding具有不同的分布和特征,对它们进行单独的归一化可以更好地保留它们的个体特性。
在PyTorch中,nn.LayerNorm(normalized_shape)函数中的normalized_shape参数指定了归一化的维度,也就是对最后几维进行归一化。normalized_shape的值决定了LayerNorm中weight和bias的形状,这样可以保证归一化操作是针对指定的维度进行的。
关于Layer Norm的详细原理和应用,可以参考论文《Layer Normalization》。该论文提供了Layer Norm的详细解释和实验结果,并探讨了它在深度神经网络中的作用和优势。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [深入理解NLP中LayerNorm的原理以及LN的代码详解](https://blog.csdn.net/qq_43827595/article/details/121877901)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文