RNN来源于哪篇文献
时间: 2024-04-01 14:28:39 浏览: 49
RNN(循环神经网络)最早由Elman在1990年提出,其论文为"Finding Structure in Time"。在这篇论文中,Elman提出了一种基于时间序列数据的神经网络结构,用于处理具有时序依赖关系的任务。RNN通过引入循环连接,使得网络可以对先前的输入进行记忆,并将其作为当前输入的一部分进行处理。这种结构使得RNN在处理序列数据、语言模型、机器翻译等任务上具有很好的表现。
相关问题
可以推荐几篇关于RNN的文献吗
当然可以!以下是几篇关于RNN的经典文献:
1. Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735-1780.
2. Graves, A., Mohamed, A. r., & Hinton, G. (2013). Speech recognition with deep recurrent neural networks. In Acoustics, speech and signal processing (icassp), 2013 ieee international conference on (pp. 6645-6649). IEEE.
3. Cho, K., Van Merriënboer, B., Gulcehre, C., Bougares, F., Schwenk, H., & Bengio, Y. (2014). Learning phrase representations using rnn encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078.
4. Mikolov, T., Karafiát, M., Burget, L., Černockỳ, J., & Khudanpur, S. (2010). Recurrent neural network based language model. In Eleventh annual conference of the international speech communication association.
希望能对您有所帮助!
RNN(循环神经网络) 文献引用
循环神经网络(Recurrent Neural Network,RNN)是一种具有记忆能力的神经网络模型,主要用于处理序列数据。与传统的前馈神经网络不同,RNN在处理序列数据时引入了时间维度的概念,使得网络可以对先前的输入进行记忆和利用。
RNN的基本结构是一个循环单元,它通过将当前输入和上一时刻的隐藏状态作为输入,输出当前时刻的隐藏状态。这种循环结构使得RNN可以对任意长度的序列进行处理,并且可以捕捉到序列中的时间依赖关系。
RNN的一个重要变体是长短期记忆网络(Long Short-Term Memory,LSTM),它通过引入门控机制来解决传统RNN在处理长序列时的梯度消失和梯度爆炸问题。LSTM通过遗忘门、输入门和输出门来控制信息的流动,从而更好地捕捉长期依赖关系。
关于RNN和LSTM的详细介绍和应用可以参考以下文献:
1. Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural computation, 9(8), 1735-1780.
2. Graves, A., Mohamed, A. R., & Hinton, G. (2013). Speech recognition with deep recurrent neural networks. In 2013 IEEE international conference on acoustics, speech and signal processing (pp. 6645-6649). IEEE.
3. Cho, K., Van Merriënboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., & Bengio, Y. (2014). Learning phrase representations using RNN encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078.