SKAttention注意力机制
时间: 2023-08-13 08:10:41 浏览: 235
SKAttention注意力机制是一种通道注意力模块,常被应用于视觉模型中。它在SE注意力模型的基础上进行改进,通过网络自己学习来选择融合不同感受野的特征图信息。SK模块使用不同尺寸的卷积核来提取特征,并自动选择合适的卷积核所提取出来的信息。这样做的目的是为了使网络能够自动地利用对分类有效的感受野捕捉到的信息。SKAttention注意力机制可以提取模型精度,并且不改变输入特征图的大小。它的设计思路是通过选择性内核单元(SK)的构建块,使用SoftMax进行融合,从而捕获不同尺度的目标物体。\[1\]\[2\]\[3\]
#### 引用[.reference_title]
- *1* *2* [SK 注意力模块 原理分析与代码实现](https://blog.csdn.net/qq_41204464/article/details/127334477)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *3* [注意力机制之SK Attention](https://blog.csdn.net/qq_38915354/article/details/129721180)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文