googlenet中加入cbam后结构图是怎样的
时间: 2023-12-10 21:39:14 浏览: 129
将convnext加入CBAM注意力的Python源码+文档说明
GoogleNet(Inception-v1)中没有使用CBAM模块,因为CBAM模块是在2018年提出的,而GoogleNet是2014年提出的。
但是,如果在GoogleNet中加入CBAM模块,那么结构图将如下所示:
```
Input
|
|-------[Inception Module]-------|
| |
| |-----[CBAM Module]-----| |
| | | |
| |-----[Convolution]-----| |
| | | |
| |-----[Convolution]-----| |
| |
| |-----[CBAM Module]-----| |
| | | |
| |-----[Convolution]-----| |
| | | |
| |-----[Convolution]-----| |
| |
| |-----[CBAM Module]-----| |
| | | |
| |-----[Convolution]-----| |
| | | |
| |-----[Convolution]-----| |
| |
|-------[Inception Module]-------|
| |
|-------[Inception Module]-------|
| |
|-------[Global Average Pooling]--|
|
|-------[Fully Connected]--------|
|
Output
```
在这里,我们在每个Inception模块的卷积层后加入了CBAM模块。对于每个CBAM模块,我们在其输入上执行一个全局最大池化操作,然后将其结果馈送到两个全连接层中,其中一个层用于计算通道注意力,另一个层用于计算空间注意力。最后,我们将通道和空间注意力相乘,将其与输入特征图相乘,然后将结果馈送到下一个Inception模块。
阅读全文