transformer除以根号dk
时间: 2023-09-06 18:14:30 浏览: 497
在Transformer中,除以根号dk是用来对注意力机制进行缩放的一个步骤。这个缩放是为了避免注意力分数过大或过小对模型的影响过大。在多头自注意力机制中,注意力分数的计算公式是通过将查询(query)和键(key)的内积除以根号dk来得到的。这个除法是为了控制注意力分数的范围,使其在不同维度的特征之间保持一致性。除以根号dk可以确保在不同维度上的注意力权重相对均匀地分布,从而提高模型的稳定性和泛化能力。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [庖丁解牛Transformer原理](https://blog.csdn.net/Hunter_pcx/article/details/120511377)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [Transformer基础](https://blog.csdn.net/qq_40876059/article/details/124059402)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文