(5)腐蚀
润滑剂在使用中不断氧化,所生成的酸性物质对轴承材料有腐蚀性,特别是对铸造铜
铅合金中的铅,易受腐蚀而形成电状的脱落。
二、支持向量机(SVM)
1、支持向量机简介
支持向量机(Support Vector Machine 简称SVM)是Cortes和Vapnik于1995年首先
提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广
应用到函数拟合等其他机器学习问题中。
它是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本
信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力。
所谓VC维是对函数类的一种度量,可以简单的理解为问题的复杂程度,VC维越高,
一个问题就越复杂 。而SVM正是用来解决这个问题的,它基本不关乎维数的多少,和样
本的维数无关(有这样的能力也因为引入了核函数 )。
结构风险最小原理: 机器学习本质上就是一种对问题真实模型的逼近 ,真实风险应
该由两部分内容刻画,一是经验风险,代表了分类器在给定样本上的误差;二是置信风险
代表了我们在多大程度上可以信任分类器在未知样本上分类的结果。置信风险与两个量有
关,一是样本数量,显然给定的样本数量越大,我们的学习结果越有可能正确,此时置信
风险越小;二是分类函数的VC维,VC维越大,推广能力越差,置信风险会变大。统计学
习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小,即结构风险最小。
支持向量机在形式上类似于多层前向网络,而且也可以被用于模式识别和非线性回归。
但是,支持向量机方法能够客服多层前向网络的固有缺陷,有以下几个优点:
(l)它是专门针对有限样本情况的,其目标是得到现有信息下的最优解而不仅仅是样本
数趋于无穷大时的最优值。
(2)算法最终将转化成为一个二次型寻优问题,从理论上说,得到的将是全局最优点。
(3)算法将实际问题通过非线性变换转换到高维的特征空间,在高维空间中构造线性判
别函数来实现原空间中的非线性判别函数,这一特殊的性质能保证机器有较好的泛化能力
同时它巧妙地解决了维数问题,使得其算法复杂度与样本维数无关。
对于分类问题,神经网络仅仅能够解决问题并不能保证得到的分类器是最优的;而基于
统计学习理论的支持向量机方法能够从理论上实现对不同类别间的最优分类,拥有最好的
泛化性能。
三、支持向量机(SVM)的算法
1、支持向量分类(SVC)算法
1.1 线性可分情形
SVM算法是从线性可分情况下的最优分类面(Optimal Hyperplane)提出的。图中
实心点和空心点分别表示两类训练样本,我们要用一条直线,将下图中实心的点和空心的
点分开。