keras.layers.LSTM参数默认
时间: 2023-07-12 11:30:25 浏览: 95
Keras中的LSTM层的默认参数如下:
```python
keras.layers.LSTM(units, activation='tanh', recurrent_activation='sigmoid', use_bias=True, kernel_initializer='glorot_uniform', recurrent_initializer='orthogonal', bias_initializer='zeros', unit_forget_bias=True, kernel_regularizer=None, recurrent_regularizer=None, bias_regularizer=None, activity_regularizer=None, kernel_constraint=None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0, implementation=1, return_sequences=False, return_state=False, go_backwards=False, stateful=False, time_major=False, unroll=False)
```
其中,`units`是LSTM层中的神经元数量,`activation`是激活函数类型,`recurrent_activation`是递归激活函数类型,`use_bias`表示是否使用偏置项,`kernel_initializer`和`recurrent_initializer`分别是权重矩阵和递归矩阵的初始化方法,`bias_initializer`是偏置项的初始化方法,`unit_forget_bias`表示是否在偏置项中添加遗忘门的偏置项,`kernel_regularizer`和`recurrent_regularizer`分别是权重矩阵和递归矩阵的正则化方法,`bias_regularizer`是偏置项的正则化方法,`activity_regularizer`是输出的正则化方法,`kernel_constraint`和`recurrent_constraint`分别是权重矩阵和递归矩阵的约束方法,`bias_constraint`是偏置项的约束方法,`dropout`是输入的Dropout比率,`recurrent_dropout`是递归的Dropout比率,`implementation`表示LSTM的实现方式,`return_sequences`表示是否返回所有时间步的输出,`return_state`表示是否返回最后一个时间步的输出和状态,`go_backwards`表示是否反向处理输入序列,`stateful`表示是否在Batch之间保留状态,`time_major`表示是否将时间步作为LSTM的第一维度进行处理,`unroll`表示是否将LSTM展开为静态图形式。
阅读全文