自组织竞争神经网络:基于侧抑制现象的模式识别

需积分: 0 4 下载量 158 浏览量 更新于2024-08-21 收藏 461KB PPT 举报
"本文主要介绍了自组织竞争人工神经网络的工作原理和学习规则,特别是如何计算输入矢量的加权和并确定获胜节点,以及在MATLAB中的实现。此外,还探讨了内星和外星神经元模型,以及相关的学习规则。" 在自组织竞争人工神经网络中,网络通过竞争机制来学习和分类输入模式。这一过程主要包括计算输入矢量的加权和以及权值修正。在描述的步骤3中,"计算输入矢量加权和"是指将输入矢量P与权重矩阵W的乘积进行求和,得到加权和A。这个过程可以用数学表达式A = compet(W*P)表示,其中compet()是一个竞争函数,通常使用的是激活函数,如硬限幅函数,以决定哪些神经元会被激活。 接下来,"通过竞争求出获胜节点"意味着在所有神经元中,激活值最高的那个神经元被认为是获胜节点,其索引由i = find(A == 1)找到。获胜节点的确定是网络进行模式分类的关键步骤,因为它代表了当前输入最匹配的类别。 然后,"根据获胜节点求出相邻层"涉及到网络的拓扑结构,特别是对于二维网络,会找到获胜节点的邻域神经元集合in,这通常通过neighb2d()函数完成,该函数以获胜节点的位置[X, Y]和邻域大小n作为参数。权值修正的步骤接着进行,dW = learn(W, P, in, LR)计算了权重更新量,其中LR是学习率,然后更新权重W = W + dw。 在MATLAB中,训练自组织竞争网络可以使用trainfm.m函数,它自动执行上述的训练流程。 内星和外星神经元模型是格劳斯贝格提出的两种神经元类型。内星神经元(图8.1)用于识别输入矢量,其学习规则基于硬限制函数,使得权值W通过学习逐渐接近输入矢量P,以达到识别目的。外星神经元(图8.2)则对外部信号进行响应并产生输出。内星学习规则中,权值修正与输出成正比,如果神经元输出保持高值,则权值更易于学习并趋向于输入矢量。 当不同输入矢量p1和p2作用于同一个内星时,每个输入矢量需先进行单位归一化,以确保比较公平。例如,当输入p1使得内星学习到W = (p1)^T后,输入p2会使加权输入和成为两个矢量的点积,进而影响内星的输出和权值更新。 自组织竞争人工神经网络通过模拟生物神经系统的竞争和自组织机制,提供了一种有效的模式识别和分类方法。其内在的学习规则和结构使得网络能够自动地从输入数据中学习并形成层次化的表示,拓宽了神经网络在模式识别、分类等领域的应用范围。