SENet注意力机制
时间: 2023-11-20 17:17:10 浏览: 221
SENet使用了一种称为Squeeze-and-Excitation(SE)的注意力机制。SE Block是SENet的核心组件,它在卷积得到的特征图上进行Squeeze和Excitation操作。首先,SE Block通过Squeeze操作,将特征图压缩成一个channel级的全局特征。然后,通过Excitation操作,学习各个channel之间的关系,得到不同channel的权重。最后,通过Scale操作,将不同channel的权重乘以原始特征图,从而得到最终的特征。SE Block的目的是让模型更加关注信息量最大的channel特征,并抑制那些不重要的channel特征。SE Block是通用的,可以嵌入到现有的网络框架中,如Inception Module和ResNet Module。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [【注意力机制】SENet(Squeeze-and-Excitation Networks)详解](https://blog.csdn.net/Roaddd/article/details/111357490)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文