特征选择与提取:基于行列式判据的变换方法
下载需积分: 10 | PPT格式 | 1.95MB |
更新于2024-08-20
| 111 浏览量 | 举报
"特征选择, 特征提取, 类别可分性判据, 离差阵判据, 变换法"
特征提取与选择在模式识别中扮演着至关重要的角色,因为它涉及到如何从原始数据中选取最有效的特征,以提高分类识别的准确性和效率。在第七章"特征提取与选择"中,主要讨论了如何通过不同的方法来优化特征集合,以达到最小化维数同时最大化类间距离和最小化类内距离的目标。
首先,离差阵判据是一种衡量特征可分性的方法,例如描述中的J4判据。这个判据常常基于数据的统计特性,如协方差矩阵或者离差阵。在J4的例子中,因为SW矩阵是对称正定的,可以找到一个非奇异矩阵A使得数据经过变换后更容易分析。通常,这样的变换可能涉及对角化过程,通过标准正交矩阵V将非对角矩阵转换为对角矩阵Λ,然后通过矩阵U = AV进一步转换数据。这种变换法旨在寻找最优的特征子集,使得判据J达到最大值。
接着,介绍了两种基本的特征提取与选择途径:直接选择法和变换法。直接选择法是在给定特征数目d的前提下,从原始的n个特征中直接挑选d个特征,使得类别可分性判据J的最大化。这通常涉及到遍历所有可能的特征组合,寻找最佳子集。而变换法则更侧重于通过线性或非线性变换降低特征维度,如PCA(主成分分析)或LDA(线性判别分析),在保持或增强判据J的同时,对特征空间进行重参数化。
此外,类别可分性判据是评价特征有效性的重要标准,它应与误判概率有直接关联,并在特征独立时具有可加性。这类判据可以帮助我们在众多特征中找出对分类最有贡献的部分。例如,DKLT(离散K-L变换)是一种广泛应用的特征选择方法,它基于信息理论中的Kullback-Leibler散度,能够捕获特征之间的相对信息量,从而实现特征的离散化和选择。
特征提取与选择是一个涉及数学、统计学和机器学习的综合过程,其目标是通过减少冗余和提高信息密度,构建出能够区分不同类别的高效特征表示。这一过程对于模式识别系统的性能至关重要,因为它直接影响到训练模型的复杂度和最终的识别准确性。
相关推荐
theAIS
- 粉丝: 60
- 资源: 2万+
最新资源
- Applied-ML-Algorithms:一个采用泰坦尼克号数据集并在scikit-learn和超参数调整中使用不同ML模型的ML项目
- Spring_2021
- Tolkien
- cot_tracker:交易者数据追踪器的承诺
- http-factory-diactoros:为Zend Diactoros实现的HTTP工厂
- 酒保:酒保-PostgreSQL备份和恢复管理器
- tpwriuzv.zip_归一化时域图
- TPF U13
- TicTaeToeOnline
- Large-scale Disk Failure Prediciton Dataset-数据集
- aim-high:用于设置和跟踪目标的应用
- c#飞机大战期末项目.rar
- Becross
- nrmgqpyn.zip_complex cepstrum
- 适用于Android NDK的功能强大的崩溃报告库。 签出后不要忘记运行git submodule update --init --recursive。-Android开发
- 弹跳旋转器::globe_with_meridians::bus_stop:一个显示弹跳旋转器的Web组件