vision transformer里的selfattention
时间: 2023-09-30 17:11:18 浏览: 111
Self-Attention与Transformer
5星 · 资源好评率100%
Vision Transformer (ViT) 是一种基于自注意力机制的视觉模型。其中的 self-attention 是一种计算方式,用于将输入特征图中的每个位置与其他位置之间建立联系。它可以通过计算输入特征图中每个位置的相似度来确定哪些位置应该被关注,哪些位置应该被忽略。在 ViT 中,self-attention 用于捕捉输入特征图中的全局上下文信息,而不是像传统的卷积神经网络一样只关注局部区域。这种全局上下文信息可以帮助模型更好地理解图像,并提高其在不同任务上的性能。
阅读全文