深度学习发展历程关键节点
时间: 2024-10-02 17:00:58 浏览: 61
深度学习的发展历程可以追溯到20世纪80年代和90年代的神经网络研究,但真正取得突破是在以下几个关键节点:
1. **反向传播算法** (Backpropagation):1975年,保罗·沃弗伦斯基和大卫·鲁梅尔哈特发明了反向传播算法,极大地简化了训练深层神经网络的过程,使得大规模训练成为可能。
2. **AlexNet** (2012):由Alex Krizhevsky等人开发的这个模型在ImageNet图像识别竞赛中取得了显著突破,它首次展示了深度卷积神经网络(CNNs)的强大性能,开启了深度学习在计算机视觉领域的新时代。
3. **深度学习复兴** (2010s):Hinton等人的工作,如深度信念网络(DBNs)和深度置信网络(DBMs),以及谷歌的TensorFlow和Theano等库的开源,推动了深度学习的广泛应用和发展。
4. **Transformer** (2017):Vaswani等人提出的Transformer模型在自然语言处理(NLP)领域带来了革命性变化,尤其是对序列到序列的任务,如机器翻译和文本生成,它的自注意力机制成为了后续许多模型的基础。
5. **BERT** 和 **M6** (2018-2021):Google的BERT(Bidirectional Encoder Representations from Transformers)预训练模型和阿里云的M6模型进一步提升了NLP的理解能力,预训练技术成为了提升深度学习效果的重要手段。
6. **GANs** (Generative Adversarial Networks):2014年由Ian Goodfellow等人提出,使得生成式模型有了巨大进步,可用于图像、音频和视频的生成。
每个节点都标志着深度学习技术的一个新里程碑,不断推动着该领域的创新和应用范围的拓宽。
阅读全文