研究生数学建模竞赛:3层LSTM模型代码优化与调参结果

需积分: 11 0 下载量 108 浏览量 更新于2024-12-22 收藏 1KB ZIP 举报
资源摘要信息:"研究生数学建模竞赛的模型代码涉及到了深度学习中的循环神经网络(RNN)及其变种长短期记忆网络(LSTM),这在处理时间序列数据时尤为有效。具体到本模型代码,使用了三层LSTM结构,每层分别包含128、256和128个单元,此外还加入了一个全连接层(Dense)以实现从序列特征到最终预测的映射。 在这三层LSTM中,每层都应用了dropout技术,以防止模型过拟合。具体来说,第一层和第三层的dropout率是0.3,第二层是0.5,这是通过调整和实验得到的。关于数据的预处理,模型在训练时没有进行shuffle操作,这是因为序列数据的时序相关性较强,随机打乱序列会破坏这种依赖关系,从而影响模型的拟合能力。 模型的输入序列长度被设置为3,这一决策可能基于对数据特性的观察和实验结果,说明了模型预测的时域跨度。在优化算法的选择上,使用了带动量的随机梯度下降(SGD),并且学习率被设置为0.015,同时伴有学习率衰减,设置为1e-6。这表明,算法不仅能够快速地学习到数据中的模式,而且通过学习率衰减机制来提高模型的泛化能力。 Batch_size被设置为32,这是一个中等规模的批量大小,能够在内存消耗和收敛速度之间取得一定的平衡。验证集损失随训练过程的变化显示,序列长度为3时,最优的训练轮数(epoch)大约是20次,这说明在给定的数据规模和模型复杂度下,20个训练周期足以使模型收敛到较为满意的性能水平。 对于模型的性能评估,使用了平均绝对百分比误差(MAPE)作为评价指标。未调参的DLSTM模型预测MAPE大约在20%左右,最高可达25%,调参后这个数值稳定下降到15%以下。最终的模型平均绝对百分比误差达到了12.23%,这一结果优于传统的回归分析和人工神经网络(ANN),展示了LSTM模型在处理此类问题时的强大能力。"