transformer的文献 来源
时间: 2023-11-17 12:02:52 浏览: 215
最初是由谷歌公司的研究员提出的,其论文名为《Attention Is All You Need》。您可以在以下网址找到该论文的原文:https://arxiv.org/abs/1706.03762。除此之外,还有很多关于Transformer的论文和文章,例如引用中提到的《The Illustrated Transformer》和引用中提到的Jay Alammar的文章。这些文章都可以帮助您更好地理解Transformer的原理和应用。
相关问题
Anomaly-Transformer数据集
Anomaly-Transformer是一个用于时间序列异常检测的模型,它基于自注意力机制和序列关联性计算来捕捉时间序列数据中的异常模式。根据提供的引用,该模型的代码已经在GitHub上开源,你可以通过该链接获取更多关于代码的详细信息。
Anomaly-Transformer模型在运行时需要使用数据集进行训练和测试。然而,在提供的引用中,并没有提到Anomaly-Transformer模型所使用的具体数据集的名称或来源。因此,无法确定它所使用的数据集是什么。
如果你想进一步了解Anomaly-Transformer模型所使用的数据集,请参考相关文献或参考资料,并查找有关该模型所使用数据集的详细信息。
近两年特征融合的文献
近年来,随着深度学习和大数据技术的发展,特征融合(Feature Fusion)在许多领域中变得越来越重要,尤其是在计算机视觉、自然语言处理、推荐系统等领域。文献中关于特征融合的研究主要集中在以下几个方面:
1. **跨模态融合**:针对不同来源的数据,如图像、文本和语音等,研究如何有效地整合这些异质信息,例如Multimodal Neural Networks (MNNs) 和 Multi-Modal Transformers。
2. **时空特征融合**:在视频分析或时间序列数据中,研究如何结合空间和时间特征,如Temporal Convolutional Networks (TCNs) 或 Transformer-based architectures with temporal attention.
3. **深度学习架构中的融合**:论文可能探讨如何在卷积神经网络(CNN)、循环神经网络(RNN)或Transformer架构中集成并优化特征提取过程,如ResNet与LSTM的结合。
4. **注意力机制的应用**:自注意力机制(Self-Attention)被广泛用于特征融合,通过学习输入的不同部分之间的关系来增强模型性能,如BERT和它的变种。
5. **弱监督和半监督学习中的融合**:在这种情况下,特征融合旨在利用未标注数据增强有标签数据的学习效果,例如Meta-Learning和Transfer Learning方法。
一些相关的文献包括:
- Wang, X., et al. "Multi-modal deep feature fusion for visual recognition." IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2018.
- Li, J., et al. "Hierarchical Attention Networks for Document Image Information Extraction." arXiv preprint arXiv:1609.01873, 2016.
- Han, W., et al. "Learning to fuse multi-view features with deep neural networks." International Journal of Computer Vision, 2017.
- Zhou, B., et al. "Joint learning of image features and scene graphs." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019.
阅读全文