主成分分析与谱方法详解:最大化方差与降维应用

需积分: 0 0 下载量 131 浏览量 更新于2024-06-30 收藏 629KB PDF 举报
第六讲主要探讨了主成分分析(PCA)及其相关谱方法在机器学习中的应用。PCA是一种常用的降维技术,其目标是通过找到一组新的坐标轴(称为主成分),将高维数据投影到低维空间,同时最大化数据的方差。这一过程对于数据预处理、特征提取以及可视化非常有用。 1. **主成分分析的基本原理**: - PCA基于观测数据的协方差矩阵\( S \),寻找投影向量\( u \)来最大化投影后数据的方差。对于一维投影(\( M=1 \)),\( u \)是一个\( D \)维向量,数据点\( x_i \)投影后为\( z_i = u^T x_i \),投影后的方差\( \text{Var}(z) = u^T S u \)。 2. **最大化方差与约束优化**: - PCA最初的问题是带约束的优化,即限制投影后的维数\( M \)。通过拉格朗日乘子法将其转化为无约束形式,目标函数变为\( \text{argmax}_{u} (u^T S u) - \lambda (M - u^Tu) \),其中\( \lambda \)是拉格朗日乘子,确保投影向量的长度为1。 3. **多维投影与矩阵表示**: - 当\( M > 1 \),投影变换矩阵\( U \)是一个\( D \times M \)的矩阵,各列对应不同的主成分,且列向量间应相互正交。此时优化目标是所有主成分方向上方差之和的最大化。 4. **扩展到概率PCA(PPCA)和核PCA(kernel PCA)**: - PPCA引入了概率模型,将PCA与概率统计结合,适用于非线性数据。而核PCA则利用核技巧(kernel trick)处理非线性数据,将数据映射到高维特征空间再进行PCA。 5. **相关谱方法**: - PCA是谱方法的一种,谱方法是通过研究矩阵的谱理论来解决优化问题。它包括线性判别分析(LDA)和典型相关分析(CCA),前者用于分类任务,后者用于找出两个或多个变量间的最相关方向。 6. **应用实例**: - 图11-1展示了PCA将数据投影到一维空间的实际效果,直观地展示了降维后数据分布的变化。 第六讲深入介绍了PCA的数学原理、优化策略,以及其在概率和非线性情况下的扩展,这些都是机器学习中重要的工具和理论基础,对于理解和实践各种机器学习算法有着关键作用。