transformer token 视觉
时间: 2023-08-22 13:07:00 浏览: 117
vision transformer预训练
Transformer token在视觉Transformer中起着重要的作用。在华为联合北大、悉尼大学的综述中,提到了Transformers in Vision: A Survey这篇文章,该文章总结了视觉Transformer的最新研究进展。在这些研究中,transformer token通常被用来表示整个图像的全局信息,以便在模型中进行信息交流和整合。
除此之外,还有一种名为CvT的Hierarchical Vision Transformer,它逐渐汇集视觉标记以减少计算成本。这种方法通过逐层的池化操作,将原始的视觉标记逐渐减少,以降低计算复杂度。
对于想要深入了解视觉Transformer原理和代码的人来说,有一篇长文可以帮助入门,它详细介绍了视觉Transformer的原理和代码实现。通过阅读这篇技术综述,可以更好地理解和应用视觉Transformer。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [transformer与视觉](https://blog.csdn.net/xys430381_1/article/details/109151182)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文