断方法能运用到实际的生成中,同时加强对便携式诊断和监测工具的研究,致力于建立简
单的故障诊断平台,建立更人性化的人机工作环境,提高诊断的效率,提高人们的设备管
理意识,促进滚动轴承及其它设备故障诊断技术的应用和发展。
二、支持向量机(SVM)
1、支持向量机简介
支持向量机(Support Vector Machine 简称 SVM)是 Cortes 和 Vapnik 于 1995 年
首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够
推广应用到函数拟合等其他机器学习问题中。
它是建立在统计学习理论的 VC 维理论和结构风险最小原理基础上的,根据有限的样本
信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力。
所谓 VC 维是对函数类的一种度量,可以简单的理解为问题的复杂程度,VC 维越高,
一个问题就越复杂 。而 SVM 正是用来解决这个问题的,它基本不关乎维数的多少,和样
本的维数无关(有这样的能力也因为引入了核函数 )。
结构风险最小原理: 机器学习本质上就是一种对问题真实模型的逼近 ,真实风险应
该由两部分内容刻画,一是经验风险,代表了分类器在给定样本上的误差;二是置信风险
代表了我们在多大程度上可以信任分类器在未知样本上分类的结果。置信风险与两个量有
关,一是样本数量,显然给定的样本数量越大,我们的学习结果越有可能正确,此时置信
风险越小;二是分类函数的 VC 维,VC 维越大,推广能力越差,置信风险会变大。统计学
习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小,即结构风险最小。
支持向量机在形式上类似于多层前向网络,而且也可以被用于模式识别和非线性回归。
但是,支持向量机方法能够客服多层前向网络的固有缺陷,有以下几个优点:
(l)它是专门针对有限样本情况的,其目标是得到现有信息下的最优解而不仅仅是样本
数趋于无穷大时的最优值。
(2)算法最终将转化成为一个二次型寻优问题,从理论上说,得到的将是全局最优点。
(3)算法将实际问题通过非线性变换转换到高维的特征空间,在高维空间中构造线性判
别函数来实现原空间中的非线性判别函数,这一特殊的性质能保证机器有较好的泛化能力
同时它巧妙地解决了维数问题,使得其算法复杂度与样本维数无关。
对于分类问题,神经网络仅仅能够解决问题并不能保证得到的分类器是最优的;而基于
统计学习理论的支持向量机方法能够从理论上实现对不同类别间的最优分类,拥有最好的
泛化性能。
2、支持向量机国内外研究现状
1995 年 vapnik 出版“The Nature of Statistical Learning Theory”,在国际范围
内掀起了学习研究统计学习理论(Statistical Learning Theory,SLT)和支持向量机算法
(SupportVector Machines,SVM)的热潮,各领域的研究人员也纷纷将 SLT 理论和
SVM 算法分别应用到模式识别、回归分析、函数逼近和信号处理等领域。 1992 年至
1995 年间,一种新型的学习机器——支持向量机(SVM)在统计学习理论的基础上产生
评论17