核主成分分析(KPCA)及其在matlab中的应用

版权申诉
5星 · 超过95%的资源 4 下载量 38 浏览量 更新于2024-10-28 3 收藏 2KB RAR 举报
资源摘要信息:"KPCA.rar_KPCA_KPCA SPE_PCA matlab_核主成分分析" 核主成分分析(KPCA)是主成分分析(PCA)的一种扩展,它通过核技巧将数据映射到高维空间,在这个空间中进行线性PCA,以处理非线性问题。核主成分分析在机器学习和数据分析中非常有用,特别是在处理复杂、非线性的数据结构时。 KPCA的原理是将输入数据通过非线性映射函数映射到一个高维特征空间中,然后在这个高维空间中执行线性PCA。这种映射通常通过一个核函数实现,比如常用的高斯核(RBF核)。核函数的作用是计算原始输入空间中任意两个点在高维空间中的内积,而不必显式地计算这些点的映射。这样做的好处是避免了直接计算高维空间的点,大大减少了计算的复杂性。 KPCA的关键步骤包括: 1. 选择合适的核函数(如高斯核、多项式核等); 2. 计算核矩阵(核函数在所有数据点对上的值构成的矩阵); 3. 中心化核矩阵,通常是通过减去核矩阵的行平均和列平均; 4. 对中心化的核矩阵进行特征值分解,找到特征值和特征向量; 5. 选择最大的几个特征值对应的特征向量; 6. 使用这些特征向量来转换原始数据到新的特征空间,这些特征向量对应的特征值越大,表示它们在描述数据变化方面越重要; 7. 将原始数据映射到由所选特征向量定义的低维子空间中。 在KPCA的实施中,T方统计量和SPE(平方预测误差)是两个重要的检测统计量指标。T方统计量,即统计量T平方,用于检测单个观测值是否远离数据的中心。它是通过测量观测值到数据中心的距离来进行的。SPE通常用于检测数据集中的异常值或离群点,是基于投影后各点的残差平方和来计算的。这两个统计量可以用来帮助判断数据点在新的特征空间中是否表现出异常行为,对于质量控制、异常检测等领域有重要应用。 关于标签中的kpca_spe,这很可能指的是使用SPE(平方预测误差)的核主成分分析。而pca_matlab指的是在MATLAB环境下的主成分分析程序,MATLAB是强大的数学计算和工程仿真软件,广泛用于各种科学计算和数据分析任务。 文件列表中的KPCA可能是KPCA相关程序代码的文件名。这个文件很可能是包含KPCA算法实现的MATLAB脚本或函数。用户可以通过运行这个脚本或函数来对数据进行核主成分分析,使用T方和SPE统计量进行数据的进一步分析和异常检测。
2019-08-12 上传
核主元分析KPCA的降维特征提取以及故障检测应用-KPCA_v2.zip 本帖最后由 iqiukp 于 2018-11-9 15:02 编辑      核主元分析(Kernel principal component analysis ,KPCA)在降维、特征提取以及故障检测中的应用。主要功能有:(1)训练数据和测试数据的非线性主元提取(降维、特征提取) (2)SPE和T2统计量及其控制限的计算 (3)故障检测 参考文献: Lee J M, Yoo C K, Choi S W, et al. Nonlinear process monitoring using kernel principal component analysis[J]. Chemical engineering science, 2004, 59: 223-234. 1. KPCA的建模过程(故障检测): (1)获取训练数据(工业过程数据需要进行标准化处理) (2)计算核矩阵 (3)核矩阵中心化 (4)特征值分解 (5)特征向量的标准化处理 (6)主元个数的选取 (7)计算非线性主成分(即降维结果或者特征提取结果) (8)SPE和T2统计量的控制限计算 function model = kpca_train % DESCRIPTION % Kernel principal component analysis % %       mappedX = kpca_train % % INPUT %   X            Training samples %                N: number of samples %                d: number of features %   options      Parameters setting % % OUTPUT %   model        KPCA model % % % Created on 9th November, 2018, by Kepeng Qiu. % number of training samples L = size; % Compute the kernel matrix K = computeKM; % Centralize the kernel matrix unit = ones/L; K_c = K-unit*K-K*unit unit*K*unit; % Solve the eigenvalue problem [V,D] = eigs; lambda = diag; % Normalize the eigenvalue V_s = V ./ sqrt'; % Compute the numbers of principal component % Extract the nonlinear component if options.type == 1 % fault detection     dims = find) >= 0.85,1, 'first'); else     dims = options.dims; end mappedX  = K_c* V_s ; % Store the results model.mappedX =  mappedX ; model.V_s = V_s; model.lambda = lambda; model.K_c = K_c; model.L = L; model.dims = dims; model.X = X; model.K = K; model.unit = unit; model.sigma = options.sigma; % Compute the threshold model.beta = options.beta;% corresponding probabilities [SPE_limit,T2_limit] = comtupeLimit; model.SPE_limit = SPE_limit; model.T2_limit = T2_limit; end复制代码2. KPCA的测试过程: (1)获取测试数据(工业过程数据需要利用训练数据的均值和标准差进行标准化处理) (2)计算核矩阵 (3)核矩阵中心化 (4)计算非线性主成分(即降维结果或者特征提取结果) (5)SPE和T2统计量的计算 function [SPE,T2,mappedY] = kpca_test % DESCRIPTION % Compute the T2 statistic, SPE statistic,and the nonlinear component of Y % %       [SPE,T2,mappedY] = kpca_test % % INPUT %   model       KPCA model %   Y           test data % % OUTPUT %   SPE         the SPE statistic %   T2          the T2 statistic %   mappedY     the nonlinear component of Y % % Created on 9th November, 2018, by Kepeng Qiu. % Compute Hotelling's T2 statistic % T2 = diag)*model.mappedX'); % the number of test samples L = size; % Compute the kernel matrix Kt = computeKM; % Centralize the kernel matrix unit = ones/model.L; Kt_c = Kt-unit*model.K-Kt*model.unit unit*model.K*model.unit; % Extract the nonlinear component mappedY = Kt_c*model.V_s; % Compute Hotelling's T2 statistic T2 = diag)*mappedY'); % Compute the squared prediction error SPE = sum.^2,2)-sum; end复制代码 3. demo1: 降维、特征提取 源代码 % Demo1: dimensionality reduction or feature extraction % ---------------------------------------------------------------------% clc clear all close all addpath) % 4 circles load circledata % X = circledata; for i = 1:4     scatter:250*i,1),X:250*i,2))     hold on end % Parameters setting options.sigma = 5;   % kernel width options.dims  = 2;   % output dimension options.type  = 0;   % 0:dimensionality reduction or feature extraction                      % 1:fault detection options.beta  = 0.9; % corresponding probabilities options.cpc  = 0.85; % Principal contribution rate % Train KPCA model model = kpca_train; figure for i = 1:4     scatter:250*i,1), ...         model.mappedX:250*i,2))     hold on end 复制代码(2)结果 (分别为原图和特征提取后的图) demo1-1.png demo1-2.png 4. demo2: 故障检测(需要调节核宽度、主元贡献率和置信度等参数来提高故障检测效果) (1)源代码 % Demo2: Fault detection % X: training samples % Y: test samples % Improve the performance of fault detection by adjusting parameters % 1. options.sigma = 16;   % kernel width % 2. options.beta          % corresponding probabilities % 3. options.cpc  ;        % principal contribution rate % ---------------------------------------------------------------------% clc clear all close all addpath) % X = rand; Y = rand; Y = rand 3; Y = rand*3; % Normalization % mu = mean; % st = std; % X = zscore; % Y = bsxfun,st); % Parameters setting options.sigma = 16;   % kernel width options.dims  = 2;   % output dimension options.type  = 1;   % 0:dimensionality reduction or feature extraction                      % 1:fault detection options.beta  = 0.9; % corresponding probabilities options.cpc  = 0.85; % principal contribution rate % Train KPCA model model = kpca_train; % Test a new sample Y [SPE,T2,mappedY] = kpca_test; % Plot the result plotResult; plotResult; 复制代码(2)结果(分别是SPE统计量和T2统计量的结果图) demo2-1.png demo2-2.png    附件是基于KPCA的降维、特征提取和故障检测程序源代码。如有错误的地方请指出,谢谢。 Kernel Principal Component Analysis .zip KPCA