注意力 ACTION模块
时间: 2023-08-26 20:05:56 浏览: 94
注意力训练
注意力ACTION模块是一种轻量级设计,用于增强模型的表示能力,并且不会显著增加计算成本或模型参数的数量。它是通用的和模块化的,可以在各种CNN模型中使用。注意力ACTION模块通过将注意力引导到重要区域并抑制不相关区域的特征激活来实现。与Non-local相比,criss-cross attention module生成attention map只利用了十字交叉路径上的特征,这样可以降低计算复杂度。RCCA模块是一种使用两次criss-cross attention module的结构,第一次相关性计算会将当前像素的信息传递到同行同列的所有位置,第二次计算时之前接受到信息的每个像素又会将再次将信息传递到自己的同行同列。\[1\]\[2\]
#### 引用[.reference_title]
- *1* [2021综述:计算机视觉中的注意力机制(续二):空间注意力](https://blog.csdn.net/wl1780852311/article/details/124525739)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* [注意力机制详解系列(三):空间注意力机制](https://blog.csdn.net/qq_36816848/article/details/129207369)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *3* [注意力机制详解系列(二):通道注意力机制](https://blog.csdn.net/qq_36816848/article/details/129206184)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文