清华大学神经网络课程讲义:感知器训练算法解析

需积分: 33 9 下载量 194 浏览量 更新于2024-08-20 收藏 2.62MB PPT 举报
上次课内容回顾了神经网络的学习算法,涵盖了离散单输出和多输出感知器的训练方法,以及连续多输出感知器的训练算法。此外,提到了清华大学蒋宗礼教授的相关教学信息,包括教材和主要参考书目,课程目标是引导学生理解和掌握人工神经网络的基本概念、模型和训练算法,并通过实验深化理解。 在人工神经网络(ANN)的学习中,感知器是最早期且基础的模型之一。离散单输出感知器的训练算法通常采用迭代更新权重的方式,如公式所示:\( W=W+X \) 或 \( W=W-X \),其中 \( W \) 是权重,\( X \) 是输入向量。而离散多输出感知器的训练算法则针对每个输出节点单独更新权重,如 \( Wj=Wj+(yj-oj)X \),这里 \( Wj \) 表示第 \( j \) 个输出节点的权重,\( yj \) 是期望输出,\( oj \) 是实际输出。对于连续多输出感知器,使用的是带学习率 \( \alpha \) 的梯度更新,即 \( wij=wij+α(yj-oj)xi \),这里的 \( wij \) 是连接输入 \( xi \) 和输出 \( yj \) 的权重。 神经网络领域的经典教材和参考书目包括蒋宗礼教授的《人工神经网络导论》以及其它国内外专家的著作,这些书籍深入浅出地介绍了神经网络的基础理论和应用。课程的目标不仅是让学生了解智能系统的基本模型,如物理符号系统和连接主义观点,还要掌握人工神经网络的各种模型,例如Perceptron(感知器)、BP(反向传播)、CPN(竞争性自组织神经网络)、Hopfield网、BAM(双向联想记忆)和ART(自适应共振理论)等。通过实验环节,学生可以进一步熟悉模型的运用和性能,同时鼓励他们结合相关文献,将学到的知识应用于自己的研究课题,提升研究和应用能力。 课程的主要内容分为多个章节,从智能的概念和智能系统的特点开始,逐步引入人工神经网络的基础知识,包括生物神经网络模型、人工神经元模型、典型激励函数、拓扑结构等。后续章节会深入讲解各种具体的神经网络模型和训练算法,帮助学生建立起对神经网络全面而深入的理解。