self attention和attention的区别
时间: 2023-09-08 07:09:47 浏览: 97
Self-Attention与Transformer
5星 · 资源好评率100%
Self-attention和attention都是用于机器学习中的注意力机制。两者的区别在于,self-attention是指在一个序列中的每个元素之间相互计算注意力,而attention则是在两个不同的序列之间计算注意力。
具体来说,self-attention是一种机制,用于计算一个序列中每个元素与其他元素之间的相关性,然后据此为每个元素分配一个权重,以表示其在序列中的重要性。而attention则是一种机制,用于将一个序列中的元素与另一个序列中的元素进行对齐,以计算它们之间的相关性。
总之,self-attention适用于同一序列中的元素之间的关系,而attention适用于不同序列之间的元素之间的关系。
阅读全文