Coord attention
时间: 2023-08-02 19:10:11 浏览: 87
CoordAttention是一种新的注意力机制,它将位置信息嵌入到通道注意力中,用于轻量级网络的设计。与传统的通道注意力不同,CoordAttention将通道注意力分解为两个1D特征编码过程,以捕获长程依赖和保留精确的位置信息。具体而言,CoordAttention利用两个一维全局池化操作将垂直和水平方向的输入特征聚合为两个独立的方向感知特征图,然后将它们编码为两个注意力图。这样,位置信息就被保存在生成的注意力图中,可以应用于输入特征图来增强感兴趣目标的表示能力。因此,CoordAttention能够在更大的区域上进行注意力,并避免产生大量的计算开销。CoordAttention是一种高效的注意力机制,可以提升轻量级网络的性能。\[1\]\[3\]
#### 引用[.reference_title]
- *1* *3* [CoordAttention解读](https://blog.csdn.net/zhouchen1998/article/details/114518727)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* [Coordinate Attention 论文笔记](https://blog.csdn.net/wuchaohuo724/article/details/120758384)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文