Detection Transformer
时间: 2023-11-14 16:27:29 浏览: 97
Detection Transformer(简称DETR)是将Transformer结构应用于目标检测的一种模型。它利用了Transformer结构的自注意力机制来对目标进行编码,并通过并行计算构建了一个端到端的检测模型,避免了以往目标检测模型中的冗余操作,使得目标检测问题变得更加简单。DETR是目标检测领域中将Transformer模型首次引入的开创之作。
DETR中的Encoder块基本上采用了Attention Is All You Need论文中的结构,并使用了修正后的位置编码,类似于ViT模型。每个Encoder块的结构如图所示,Encoder部分由多个Encoder块堆叠而成,第一个块的输入为经过修正的Backbone序列输入,后续的块的输入则是前一个块的输出,最终输出的维度与输入的维度相同。如果对Transformer的部分不清楚,可以参考相关资料进行复习。
DETR的官方源代码可以在GitHub上找到,提供了DETR的全部代码,包括训练代码、测试代码等。此外,DETR还提供了在coco数据集上的API曲线、训练权重和测试权重等资源。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *3* [DETR(DEtection TRansformer)要点总结](https://blog.csdn.net/qq_39592053/article/details/128008673)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* [DETR:DEtection TRansformer ](https://download.csdn.net/download/weixin_42715977/85994710)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文