人工神经网络与激活函数解析

需积分: 46 177 下载量 104 浏览量 更新于2024-07-11 收藏 1.86MB PPT 举报
该资源是一份关于神经网络入门的PPT,由阎玉萍于2018年29月1日演讲,涵盖了人工神经网络的发展历程、基本结构、学习算法,以及各种类型的神经网络,如前向多层网络、自组织特征映射网络(SOFM)、卷积神经网络和深度学习网络,并提及了深度学习框架Caffe。 **神经元激活函数** 神经元激活函数是神经网络中至关重要的组成部分,它们决定了神经元如何响应输入信号并生成输出。MP神经元模型由心理学家McCulloch和数学家Pitts提出,它是人工神经元模型的起点,其中的激活函数通常是阶跃函数。然而,随着神经网络理论的发展,出现了多种不同形式的激活函数,如: 1. **sigmoid函数**:这是一个S型曲线函数,输出值在0到1之间,常用于二分类问题,因为它可以将连续的实数值映射到概率区间。 2. **ReLU(Rectified Linear Unit)**:是最常用的激活函数之一,对于正数,它保持原样;对于负数,它输出0,从而解决了梯度消失的问题。 3. **Leaky ReLU**:是对ReLU的改进,对于负数部分,它不是完全输出0,而是输出一个小的负值,以防止“死亡ReLU”现象。 4. ** Tanh**:与sigmoid类似,但其输出在-1到1之间,使得零中心化更好。 5. **ELU (Exponential Linear Units)**:引入指数函数,旨在解决ReLU的“死亡”问题,同时保持输出的零均值。 6. **Swish**:是Google提出的自我门控的激活函数,它在某些情况下表现优于ReLU。 **神经网络的结构与学习算法** 神经网络的基本结构包括输入层、隐藏层和输出层。前向多层网络(也称为前馈网络)通过多个层级的神经元逐层传递信息,每个神经元连接到下一层的所有神经元。Hebb规则是早期学习算法的基础,描述了神经元权重更新的原则。 **深度学习与卷积神经网络** 随着计算能力的提升,多层的神经网络演变为深度学习网络,其中卷积神经网络(CNN)在图像识别和处理领域表现出色,利用卷积层和池化层来提取特征。深度学习网络如AlexNet、VGG、ResNet等,通过增加网络深度,极大地提高了模型的表达能力和准确性。 **反向传播算法** 多层前向网络的学习问题由反向传播算法解决,该算法通过梯度下降优化损失函数,逐层反向传播误差,更新权重,以最小化预测输出与真实输出之间的差距。 **深度学习框架** 深度学习框架如Caffe,简化了深度学习模型的构建、训练和部署。这些框架提供高效的计算库和模型定义,使研究人员和工程师能够快速实验和开发新的神经网络架构。 总结来说,神经网络的发展经历了多个阶段,从最初的M-P神经元模型到现代的深度学习网络,激活函数和学习算法的不断改进极大地推动了人工智能领域的发展。这份PPT是了解神经网络及其相关概念的入门资源。