提升异联想记忆容量:自适应快速学习算法

需积分: 15 0 下载量 142 浏览量 更新于2024-08-07 收藏 184KB PDF 举报
本文档探讨了"联想记忆的自适应快速学习"(Adaptive Quick Learning for Associative Memory)这一主题,由Tomoshige Yoshihara和Masafumi Hagiwara两位学者在Keio大学,日本横滨,223-8522发表。关联记忆(Bidirectional Associative Memory, BAM)是一种异联结型记忆模型,它具备召回和恢复模式的能力。然而,作为基于赫布学习(Hebbian learning)的记忆系统,其主要缺点是存储容量较低。 论文提出了一个名为Pseudo-Relaxation Learning Algorithm (PRLAB) 的训练方法,这种方法显著提高了BAM的记忆容量。通过将赫布学习与快速学习算法相结合,BAM的存储能力得到增强,同时对噪声输入的抗干扰性也有所提升,但前提是学习过程中连接权重的更新能够收敛。如果在学习过程中遇到了无法找到解决方案的情况,即训练模式之间的不等式冲突可能导致学习无法收敛,传统方法下的模式回忆无法得到保障。 为了解决这个问题,论文提出了一种创新的方法。当系统估计到学习过程可能不会收敛时,通过将随机数附加到训练模式上,实现了多模态化。这样即使在训练模式中存在同时性的不等式矛盾,也能通过这种策略促使学习过程趋于稳定,确保了训练模式的回忆功能。这种方法不仅解决了原有问题,还提高了系统的整体性能和稳定性。通过这一改进,作者们旨在推动关联记忆的学习算法朝着更高效、可靠的方向发展,为未来的神经网络设计和人工智能应用提供了新的思路和技术支持。