反对称变换与有监督局部保持投影的融合算法

需积分: 9 0 下载量 156 浏览量 更新于2024-08-12 收藏 574KB PDF 举报
"该文提出了一种新的有监督局部保持投影方法,该方法结合了反对称变换,旨在解决监督局部保持投影(SLPP)的过学习问题和保持图像空间差异信息的能力不足。通过最小化局部离散度和最大化差异离散度准则,找到SLPP与直接线性鉴别分析(D-LDA)的特殊等价形式,并进一步利用反对称矩阵的性质进行变换,以获取更完整的鉴别信息。这种方法特别适用于线性空间中的小样本问题,已经在NUSST603和ORL人脸库上进行了实验验证,显示了其有效性。该研究得到了多项基金的支持。" 正文: 在信息技术领域,特征抽取和降维是关键环节,尤其在机器学习和模式识别中。有监督局部保持投影(SLPP)作为一种有效的降维方法,旨在保持数据的局部结构,同时考虑类别信息。然而,SLPP存在过学习的问题,即模型可能过于复杂,导致泛化能力下降,同时在处理图像空间的差异信息时效果不佳。为解决这些问题,2013年的一篇论文提出了一种新颖的策略,即在反对称变换的框架下进行有监督局部保持投影。 该研究首先对SLPP进行改进,通过最小化局部离散度来保持数据点的邻域关系,同时最大化差异离散度,以保留类别间的差异信息。这一过程实际上是在寻找一种投影方向,使得SLPP与直接线性鉴别分析(D-LDA)达到一种特殊等价状态。D-LDA是一种经典的数据分类和降维方法,它通过最大化类间距离和最小化类内距离来提高分类性能。通过这样的等价关系,可以利用D-LDA的理论优势来优化SLPP。 接下来,研究引入了反对称矩阵的概念。反对称矩阵是特定类型的矩阵,其转置等于其负,对应于欧几里得空间中的线性变换。论文进一步探讨了这种特殊等价形式的D-LDA转换矩阵的反对称变换,从而得到一个新型的反对称矩阵。这个反对称矩阵的性质有助于在保持原有鉴别信息的同时,更好地处理线性空间的小样本问题。 通过分别求解两种不同类型的矩阵(原始D-LDA的转换矩阵和经过反对称变换的矩阵),研究人员能够得到更加完整和准确的样本鉴别信息。这种方法的创新之处在于,它不仅考虑了数据的局部结构,还充分利用了矩阵理论和线性代数中的反对称性,为小样本问题提供了更优的解决方案。 实验证明,这种反对称变换下的有监督局部保持投影算法在NUSST603和ORL人脸库上的应用取得了显著的成果,有效地解决了小样本问题,提高了特征抽取的准确性。这表明,该方法在人脸识别、图像分类等实际应用中具有很大的潜力。 总结来说,这项研究为特征抽取和降维提供了一个新的视角,通过结合有监督学习、局部保持投影和反对称变换,解决了SLPP的局限性,增强了模型的泛化能力和对差异信息的保持能力。这不仅对机器学习理论有所贡献,也为实际应用中的数据预处理和特征选择提供了有价值的工具。