LSTM模型的数学公式
时间: 2023-11-09 17:26:59 浏览: 71
LSTM(Long Short-Term Memory)是一种常用的循环神经网络(RNN)模型,它能够有效地解决长序列数据的建模问题。LSTM模型的数学公式如下:
1. 输入门(input gate):
$$i_t = \sigma(W_{xi}x_t + W_{hi}h_{t-1} + b_i)$$
其中,$i_t$是输入门的输出,$\sigma$是sigmoid函数,$W_{xi}$是输入$x_t$的权重矩阵,$W_{hi}$是前一时刻的隐藏状态$h_{t-1}$的权重矩阵,$b_i$是偏置向量。
2. 遗忘门(forget gate):
$$f_t = \sigma(W_{xf}x_t + W_{hf}h_{t-1} + b_f)$$
其中,$f_t$是遗忘门的输出,$\sigma$是sigmoid函数,$W_{xf}$是输入$x_t$的权重矩阵,$W_{hf}$是前一时刻的隐藏状态$h_{t-1}$的权重矩阵,$b_f$是偏置向量。
3. 记忆状态(cell state):
$$C_t = f_t * C_{t-1} + i_t * tanh(W_{xc}x_t + W_{hc}h_{t-1} + b_c)$$
其中,$C_t$是记忆状态,$*$是逐元素相乘,$tanh$是双曲正切函数,$W_{xc}$是输入$x_t$的权重矩阵,$W_{hc}$是前一时刻的隐藏状态$h_{t-1}$的权重矩阵,$b_c$是偏置向量。
4. 输出门(output gate):
$$o_t = \sigma(W_{xo}x_t + W_{ho}h_{t-1} + b_o)$$
其中,$o_t$是输出门的输出,$\sigma$是sigmoid函数,$W_{xo}$是输入$x_t$的权重矩阵,$W_{ho}$是前一时刻的隐藏状态$h_{t-1}$的权重矩阵,$b_o$是偏置向量。
5. 隐藏状态(hidden state):
$$h_t = o_t * tanh(C_t)$$
其中,$h_t$是隐藏状态,$tanh$是双曲正切函数,$C_t$是记忆状态,$o_t$是输出门的输出。
阅读全文