SIMMA注意力机制
时间: 2023-08-22 21:10:30 浏览: 152
SIMMA注意力机制是一种基于自注意力机制(Self-Attention)的注意力机制。在自注意力机制中,输入的查询(Q)、键(K)和值(V)都是同源的,代表了同一个词向量X。而SIMMA注意力机制则对这些同源的词向量X进行了空间上的变换,通过乘上参数矩阵,使得不同的词向量可以表示不同的重要性。这样,SIMMA注意力机制可以根据输入的查询,计算出与之相关的键的相似度,并根据相似度的大小来决定对应值的权重。通过这种方式,SIMMA注意力机制能够从大量信息中筛选出少量重要信息,并将注意力聚焦在这些重要信息上,忽略不重要的信息。\[2\]\[3\]
#### 引用[.reference_title]
- *1* *2* *3* [【Transformer 相关理论深入理解】注意力机制、自注意力机制、多头注意力机制、位置编码](https://blog.csdn.net/qq_38253797/article/details/127461558)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文