SE、CBAM、ECA、CA原理
时间: 2023-09-12 13:09:28 浏览: 116
1. SE(Squeeze-and-Excitation)注意力机制:
- SE注意力机制通过引入一个全局上下文感知模块来自适应地调整通道特征的重要性。
- 首先,使用全局平均池化对输入特征图进行压缩,得到每个通道上的全局特征。
- 然后,通过两个全连接层来学习通道之间的相关性,其中第一个全连接层用于降低维度,第二个全连接层用于学习通道权重。
- 最后,使用sigmoid函数将通道权重归一化到0到1之间,并将其乘以输入特征图,以增强重要的通道特征。
2. CBAM(Convolutional Block Attention Module)注意力机制:
- CBAM注意力机制结合了空间注意力和通道注意力,可以同时对空间和通道维度进行建模。
- CBAM包含两个模块:通道注意力模块和空间注意力模块。
- 通道注意力模块使用全局平均池化操作来获取通道维度上的全局特征,然后使用两个全连接层来学习通道之间的相关性。
- 空间注意力模块使用逐通道的最大池化和平均池化来学习每个通道上的空间相关性。
- 最后,将通道注意力和空间注意力相乘,并将其乘以输入特征图,以融合空间和通道注意力并增强重要的特征。
3. ECA(Efficient Channel Attention)注意力机制:
- ECA注意力机制通过引入一个可学习的1D卷积操作来建模通道之间的长程依赖关系。
- 传统的注意力机制需要全局池化操作来获取全局上下文信息,但ECA使用1D卷积可以在不损失空间维度信息的情况下,对通道维度进行全局建模。
- 1D卷积操作通过在通道维度上滑动卷积核,学习通道之间的相关性,并生成每个通道上的注意权重。
- 最后,将注意权重与输入特征图相乘,以增强重要的通道特征。
这些注意力机制都旨在增强神经网络对输入数据的关注度,提升模型的表达能力和性能。它们可以应用于不同的网络架构和任务中,根据具体情况选择合适的注意力机制。
阅读全文