Multi-Head-Self-Attention是通道注意力还是空间注意力
时间: 2023-08-29 18:06:26 浏览: 74
自注意力机制(Self-Attention)
Multi-Head-Self-Attention是一种空间注意力机制。它使用多个头来计算注意力,每个头都能够学习到输入序列中不同位置之间的依赖关系,从而捕获更丰富的信息。在Multi-Head-Self-Attention中,每个头都可以看作是一个通道,但它们并不是互相独立的通道,而是通过计算注意力来协同工作,从而产生一个更准确的表示。因此,Multi-Head-Self-Attention既包含了通道注意力的思想,也包含了空间注意力的思想。
阅读全文