triplet attention
时间: 2023-07-29 09:08:38 浏览: 161
Triplet attention是一种通过使用三分支结构捕获跨维度交互来计算注意力权重的新方法。它由三个平行的分支组成,其中两个分支负责捕获通道和空间之间的跨维度交互,而最后一个分支类似于CBAM,用于构建空间注意力。这三个分支的输出通过平均求和来得到最终的注意力权重。Triplet attention的优势在于它能够在计算注意力权重时捕获跨维度的依赖关系,从而提高了性能。它的设计简单而有效,可以轻松地作为附加模块插入经典的骨干网络。实验证明,triplet attention在图像分类和目标检测等各种计算机视觉任务中表现出了良好的性能。\[1\]\[2\]\[3\]
#### 引用[.reference_title]
- *1* [注意力机制:基于Yolov5/Yolov7的Triplet注意力模块,即插即用,效果优于cbam、se,涨点明显](https://blog.csdn.net/m0_63774211/article/details/130386790)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* *3* [Triplet Attention -接近无参注意力| Rotate to Attend: Convolutional Triplet Attention Module](https://blog.csdn.net/weixin_42096202/article/details/108970057)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文