transformer的结构图
时间: 2023-10-01 22:11:16 浏览: 37
下面是Transformer的结构图:
![Transformer结构图](https://cdn.jsdelivr.net/gh/lyrichu/PicBed/transformer.png)
Transformer中主要包括两个部分:Encoder和Decoder。Encoder和Decoder都由若干个相同的层组成,每个层包含了Multi-Head Attention和Feed Forward Neural Network两个子层,并且在这两个子层之间还添加了一个残差连接和一个Layer Normalization层。在Decoder的每个层中,还添加了一个Masked Multi-Head Attention子层用于对输入序列进行遮挡。
Encoder的输入是一个序列,而Decoder的输入则是Encoder的输出和目标序列。在Decoder中,每个位置的输出都由当前位置之前的输出和当前位置的输入经过Self-Attention计算得到,然后再经过Encoder-Decoder Attention计算得到,最后通过一个全连接层得到最终输出。
相关问题
transformer结构图
根据引用中的描述,Transformer的整体结构由Encoder和Decoder两个部分组成,每个部分都包含6个block。我无法直接提供图片,但是你可以参考原始文章中的图示来获得更详细的Transformer结构图。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [Transformer模型详解(图解史上最完整版)](https://blog.csdn.net/Trisyp/article/details/129202472)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [Transformer完全图解](https://blog.csdn.net/weixin_44305115/article/details/101622645)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
swin transformer结构图
以下是Swin Transformer的结构图:
![Swin Transformer结构图](https://raw.githubusercontent.com/microsoft/Swin-Transformer/master/figures/swin_figure.png)
可以看到,Swin Transformer包含了多个基于缩放的块(Swin Block),每个块都包含了多个跨分组的注意力层和全连接层。Swin Block之间还有一个下采样模块,用于将特征图的分辨率减半。整个网络的输入是一张图像,输出是该图像的特征表示。