径向基函数网络:扩展常数与GRNN解析

需积分: 50 1 下载量 190 浏览量 更新于2024-08-21 收藏 2.6MB PPT 举报
"这篇资料主要介绍了人工神经网络中的径向基函数网络(RBF网络),特别是GRNN(Generalized Radial Basis Function Network)及其变种NEWGRNN的结构和工作原理。扩展常数不再由训练算法统一确定,而是与网络的特定参数相关,如核函数的宽度参数。在GRNN中,第一层使用了RADBAS神经元,输出层则是特殊线性层,利用规格化内积进行计算。" 径向基函数网络(RBF网络)是一种人工神经网络,它利用径向基函数作为隐藏层神经元的激活函数,形成非线性映射。这些函数通常是中心对称的,并且随着输入与中心点距离的增加而减小,最常见的例子是高斯核函数。在RBF网络中,每个基函数对应一个训练样本,其形式为φ(||X-Xp||),其中Xp是中心点,φ是径向基函数,||X-Xp||是输入X与中心Xp之间的欧氏距离。 网络的目标是找到一个非线性映射F(x),使得输入样本Xp的输出等于对应的期望目标dp。这通过将多个基函数的加权和来实现,权重w_p与对应的基函数φ_ip(输入X与样本Xp的距离)相关。如果所有基函数的矩阵Φ是可逆的,那么可以解出权重向量W,满足ΦW=d,其中d是目标向量。 在GRNN网络中,它采用了一种两层结构,第一层使用了径向基函数(如高斯函数)的神经元,计算输入矢量和权值矢量的距离,而输出层是一个特殊线性层,输入是隐层输出矢量a1和输出权矩阵W的规格化内积。这有助于简化网络的计算过程并提高拟合能力。 NEWGRNN进一步扩展了GRNN,它可能引入了阈值参数来调整输出函数,以补偿样本平均值与目标平均值之间的差异。这增强了网络适应不同数据集的能力,使其更适用于函数逼近问题。 RBF网络的一个关键优势是它们通常比反向传播(BP)网络训练更快,因为RBF网络的权重仅在初始化时设置,而BP网络在训练过程中需要不断调整权重和阈值。这使得RBF网络成为解决静态逼近问题和在线学习任务的有效工具,特别是在需要快速收敛和稳定性能的情况下。然而,对于某些复杂的学习任务,BP网络由于其适应性和泛化能力,可能仍然是首选。