注意力机制的resnet
时间: 2023-09-14 15:03:14 浏览: 84
注意力机制的ResNet是一种使用注意力机制改进的Residual Network(ResNet),在ResNet的基础上引入了通道注意力机制(Channel Attention)和空间注意力机制(Spatial Attention)。与传统的ResNet相比,注意力机制的ResNet更加注重全局信息的关注,而不需要通过增加网络深度来达到相似的性能。在实现CBAM时,可以在原始的残差结构连接前,依次通过通道注意力和空间注意力来增强网络性能。通过引入注意力机制,可以使网络更加聚焦于重要的特征,从而提升网络的性能评价。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *3* [涨点技巧:注意力机制---Yolov8引入Resnet_CBAM,CBAM升级版](https://blog.csdn.net/m0_63774211/article/details/130974331)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
- *2* [将注意力机制引入ResNet,视觉领域涨点技巧来了!附使用方法](https://blog.csdn.net/m0_37169880/article/details/114875856)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]