改写 本章首先介绍了深度学习的基本原理与最传统有效的深度学习方法—深度前馈网络深度前馈网络;随后介绍了卷积神经网络的起源,阐述了卷积神经网络的基本工作原理;随之讲述了卷积神经网络的历史性突破——AlexNet的发明并介绍了AlexNet的结构与其中新技术的应用:ReLU激活函数以及Dropout,然后介绍了本文中所使用的模型——深度残差网络的思想及其使用的Building Block模块的结构;最后又介绍了深度学习中最常用的训练优化方法和加速训练的方法,并且选取了随机梯度下降(SGD)和自适应时刻估计方法(Adam)算法用于我们接下来模型的训练。
时间: 2023-06-12 19:02:32 浏览: 164
本章首先对深度学习的基本原理进行了介绍,并详细介绍了最传统有效的深度学习方法——深度前馈网络。接着,阐述了卷积神经网络的起源和基本工作原理,并介绍了历史性突破——AlexNet的发明。其中,详细介绍了AlexNet的结构以及其中新技术的应用,如ReLU激活函数和Dropout。此外,本文还介绍了深度残差网络的思想及其使用的Building Block模块的结构。最后,本章介绍了深度学习中最常用的训练优化方法和加速训练的方法,并选取了随机梯度下降(SGD)和自适应时刻估计方法(Adam)算法用于我们接下来模型的训练。
阅读全文