cbam注意力机制使用了哪些激活函数
时间: 2024-04-21 18:12:33 浏览: 120
CBAM注意力机制代码,以及如何对yolov5进行改进
CBAM注意力机制中使用了sigmoid和softmax激活函数。在CBAM模块中,首先使用全局平均池化操作进行特征压缩,然后使用两个全连接层分别提取channel和spatial attention,其中channel attention使用sigmoid作为激活函数,spatial attention使用softmax作为激活函数。这些激活函数的作用是将输出值映射到[0,1]的范围内,以便计算相应的注意力权重。
阅读全文