可以将注意力机制添加到每个残差块的最后一个卷积层之后,是在bn之前吗
时间: 2024-05-20 21:17:34 浏览: 145
基于残差块和注意力机制的细胞图像分割方法
注意力机制应该是在bn之后,但在激活函数之前添加到每个残差块的最后一个卷积层。这是因为注意力机制涉及到对通道的加权,这个加权应该是在经过归一化后的特征图上进行的。如果在bn之前添加注意力机制,那么加权的效果将会被归一化所抵消,因此应该在bn之后添加注意力机制。而在激活函数之前添加注意力机制是因为激活函数需要应用于加权后的特征图。
阅读全文