探索深度学习模型架构:backbones集合

0 下载量 80 浏览量 更新于2024-10-01 收藏 266KB ZIP 举报
资源摘要信息:"深度学习模型与backbones" 深度学习作为一种机器学习方法,通过多层神经网络来模拟人脑分析和学习的方式,已被广泛应用于图像识别、语音识别、自然语言处理、推荐系统等多个领域。backbones在深度学习中通常指的是网络的核心架构,即主干网络,它是深度学习模型的基础框架,负责提取数据的特征,其他部分则在此基础上进一步处理以实现特定的任务。 描述中列出的各个backbones是深度学习模型的具体实例,它们各有特色和适用场景。以下是对这些backbones所代表的模型的知识点介绍: 1. AlexNet:是深度卷积神经网络的先驱之一,具有5个卷积层和3个全连接层。它的出现标志着深度学习在图像识别领域的重大突破。 2. Beit(Vision Transformer):基于Transformer结构,引入了图像块序列作为输入,通过自注意力机制有效处理图像信息。 3. Conformer:结合了卷积神经网络和Transformer的优势,专为语音识别设计。 4. Convmixer:通过将卷积层和全连接层混合使用,从而增强了模型对输入数据特征的融合能力。 5. CSPNet(Cross Stage Partial Network):通过减少信息通道和分割阶段来提高计算效率和网络性能。 6. Davit:一个结合了Transformer和卷积神经网络结构特点的高效backbone。 7. DeiT(Data-Efficient Image Transformer):一种专为数据效率优化的Transformer模型。 8. DeiT III:进一步发展DeiT模型,进一步提升性能。 9. DenseNet(Densely Connected Convolutional Networks):通过连接每一层来增强特征传播,提高网络效率。 10. EdgeNext:专为边缘设备设计的高效神经网络结构。 11. EfficientFormer:一种轻量级的Transformer模型,针对移动设备进行了优化。 12. EfficientNet:通过网络缩放技术平衡宽度、深度和分辨率,实现高效的模型缩放。 13. EfficientNet V2:改进版的EfficientNet,进一步提升性能和效率。 14. EVA:专为视频理解设计的高效视觉Transformer。 15. Hornet:一种结合视觉Transformer和CNN特征的模型,具有高效的计算和记忆特性。 16. HRNet(High-Resolution Network):专注于保持高分辨率的特征表示。 17. LeNet:最早的卷积神经网络之一,主要用于手写数字识别。 18. MixMIM:一种用于视觉预训练的多尺度和多视角Transformer。 19. MLP-Mixer:一种基于多层感知器(MLP)的简单混合模型,挑战了传统CNN的主导地位。 20. MobileNet:针对移动和边缘设备优化的小型轻量级卷积神经网络。 21. MobileViT:将移动网络和Transformer结合起来,以改进模型的效率和准确性。 22. MVIT(Multiscale Vision Transformer):多尺度Transformer模型,适用于视频理解任务。 23. PoolFormer:提出了一种池化注意力机制的Transformer模型。 24. RegNet:通过系统化的方法来设计网络架构。 25. RePLKNet:提出了一种改进的局部关键点网络,增强了特征的表达能力。 26. RepVGG:一种具有VGG结构的重参数化Transformer网络。 27. Res2Net:通过多尺度特征的分层融合增强了网络的特征表达能力。 28. ResNet(Residual Networks):引入了残差连接,解决了深层网络训练中的梯度消失问题。 29. ResNeXt:通过引入“分组卷积”丰富了模型的结构。 30. RevVit:一种用于视觉识别的可逆Transformer网络。 31. SEResNet:引入了Squeeze-and-Excitation(SE)模块,改善了ResNet模型的性能。 32. SEResNeXt:结合了SE模块和ResNeXt结构,进一步提升了模型性能。 33. ShuffleNet:专为移动和嵌入式设备设计的轻量级网络,引入了通道洗牌操作以提升性能。 34. Swin Transformer(Shifted Windows Transformer):通过窗口机制来实现自注意力计算,是一种高效的视觉Transformer。 35. Swin Transformer V2:改进的版本,进一步提升了性能。 36. T2T-ViT(Transformers-to-Transformers Vision Transformer):一种有效缩短Transformer序列的Vision Transformer结构。 37. TinyViT:轻量级的Vision Transformer模型,便于在资源受限的设备上运行。 38. TNT(Tunneling Network Transformer):一种用于视觉任务的Transformer模型,通过隧道网络设计改进了特征表示。 ***ins:一种新型的Transformer结构,通过模拟双胞胎学习过程来增强特征学习。 40. VAN(Vision Attention Network):提出了一种新的自注意力机制,用于视觉任务。 41. VGG:因拥有多个连续的卷积层而闻名,VGG模型在网络深度上作出了重要贡献。 42. Vision Transformer:一种应用Transformer到图像任务的模型,开启了视觉Transformer的新时代。 43. Wide ResNet:通过增加网络宽度,使得网络具有更强大的特征学习能力。 深度学习模型的backbones是构建高效、准确的神经网络模型的关键。理解它们的设计原理、优势及适用场景对于深度学习研究者和从业者而言是必不可少的。模型的选择需根据实际任务需求、资源限制和期望的性能指标来决定。随着深度学习技术的不断进步,新的backbones模型将不断涌现,为各种AI任务提供更多的可能性和选择。

File "/home/zrb/anaconda3/envs/open-mmlab/bin/mmskl", line 7, in <module> exec(compile(f.read(), __file__, 'exec')) File "/home/zrb/mmskeleton/tools/mmskl", line 123, in <module> main() File "/home/zrb/mmskeleton/tools/mmskl", line 117, in main call_obj(**cfg.processor_cfg) File "/home/zrb/mmskeleton/mmskeleton/utils/importer.py", line 24, in call_obj return import_obj(type)(**kwargs) File "/home/zrb/mmskeleton/mmskeleton/processor/recognition.py", line 47, in test output = model(data) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/parallel/data_parallel.py", line 150, in forward return self.module(*inputs[0], **kwargs[0]) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/mmskeleton/mmskeleton/models/backbones/st_gcn_aaai18.py", line 94, in forward x = self.data_bn(x) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/batchnorm.py", line 81, in forward exponential_average_factor, self.eps) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/functional.py", line 1656, in batch_norm training, momentum, eps, torch.backends.cudnn.enabled RuntimeError: running_mean should contain 60 elements not 54

2023-07-25 上传