SK注意力机制和SE注意力机制
时间: 2023-10-12 09:05:22 浏览: 166
SK注意力模块和SE注意力模块是视觉模型中常用的通道注意力模块。SK模块在SE模块的基础上进行了改进。SK模块能够对输入特征图进行通道特征加强,而且最终的输出不改变输入特征图的大小。
SK注意力模块的设计思想是选择卷积核,它能使用不同尺寸的卷积核来提取特征,然后自动选择合适的卷积核所提取的信息。这样做的好处是,不同大小的感受视野(卷积核)对不同尺度的目标会有不同的效果。
SE注意力模块是一种常见的通道注意力模块,它通过学习网络自动选择融合不同感受野的特征图信息。SE模块能够对输入特征图中的不同通道进行加权,以增强有用的特征并抑制无用的特征。
综上所述,SK注意力模块和SE注意力模块都是用来提升视觉模型性能的通道注意力模块。SK模块通过选择不同尺寸的卷积核来提取特征,SE模块通过学习网络自动选择融合不同感受野的特征图信息。它们都能够增强有用的特征,提升模型的性能。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *3* [SK 注意力模块 原理分析与代码实现](https://blog.csdn.net/qq_41204464/article/details/127334477)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
- *2* [matlab注意力机制](https://download.csdn.net/download/weixin_44603934/87251899)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文