循环神经网络到lstm的发展历程,lstm自己的发展历程,给出参考文献
时间: 2023-11-27 07:25:29 浏览: 40
循环神经网络(RNN)是一种能够处理序列数据的神经网络,它在每个时间步上接受输入,并且还会接收来自前一个时间步的隐藏状态作为输入。然而,传统的 RNN 有一个问题,就是在处理长序列时,梯度消失或梯度爆炸的问题会导致模型无法有效地学习长期依赖。
为了解决这个问题,1997年,Hochreiter 和 Schmidhuber 提出了长短期记忆(LSTM)网络。LSTM 在 RNN 的基础上增加了三个门(输入门、输出门和遗忘门),这些门控制着信息的流动,使得 LSTM 能够更好地处理长期依赖。
随着深度学习的发展,LSTM 也在不断演进。一些改进的 LSTM 模型被提出,例如 Gated Recurrent Unit (GRU)、Recurrent Highway Networks (RHN) 等。这些模型在 LSTM 的基础上进一步增加了门或者引入了新的结构,可以更好地处理长序列数据。
参考文献:
- Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735-1780.
- Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., & Bengio, Y. (2014, June). Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) (pp. 1724-1734).
- Chung, J., Gulcehre, C., Cho, K., & Bengio, Y. (2014). Empirical evaluation of gated recurrent neural networks on sequence modeling. arXiv preprint arXiv:1412.3555.
- Zilly, J. G., Srivastava, R. K., Koutník, J., & Schmidhuber, J. (2016). Recurrent highway networks. arXiv preprint arXiv:1607.03474.