CNN结合transformer
时间: 2023-08-26 07:07:21 浏览: 172
基于CNN与视觉Transformer融合的图像分类模型
CNN结合Transformer是将Transformer的Self-attention融入了一个CNN的backbone中,而非简单的叠加。这种方法的目的是解决CNN和Transformer特征维度不一致的问题。CNN的特征维度是C×H×W(C、H、W分别为通道、高度和宽度),而Transformer的patch embedding维度是(K 1) × E(K、1和E分别表示图像patch的数量、[cls] token的数量和embedding维度)。因此,在将输入送入Transformer分支之前,需要通过1×1卷积对齐通道维度并进行下采样。而当从Transformer分支送入CNN分支时,同样需要通过1×1卷积对齐通道维度并进行上采样。此外,LayerNorm和BatchNorm用于归一化特征。这种结合CNN和Transformer的方法能够充分利用它们各自的优势,提高模型的性能和表达能力。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *3* [CNN+Transformer算法总结(持续更新)](https://blog.csdn.net/qq_45752541/article/details/119799435)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* [【深度学习】CNN+Transformer汇总](https://blog.csdn.net/zhe470719/article/details/124196490)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文