1、基于支持向量机方法的机车故障诊断的分析与研究 摘 要:本文介绍了机器学习的分类,主要讨论了支持向量机的优点、SVM的故障分类原理,包括支持向量机的二值分类、线性规划支持向量机的二次分类、多类分类问题等。为机车故障诊断提供参考。 关键词:机器学习;支持向量机;故障诊断 DOI:10.16640/ki.37-1222/t.2016.10.219 1 机器学习的分类 目前机车故障智能诊断方法一般依赖机器学习,所谓机器学习是指:从样本数据中发现规律,然后利用所得规律预测未来数据和无法直接获得的数据。机器学致分为三类:(1)参数统计估计方法。包括模式识别、神经网络等,它们都基于传统统计学。此方法有较大局
2、限性,主要是要求已知样本的分布形式,还需要数量极大的样本。在实际中,能获得的样本数是有限的,因此这类方法的使用效果不佳;(2)经验非线性方法。这类方法能够利用已知样本建立非线性模型,从而消除参数统计估计方法的一些不足。不过,这类方法没有统一的数学理论作为支撑;(3)统计学习理论。是一种专门针对小样本的机器学习理论,为解决小样本统计问题提供了一种新的选择。统计推理规则既考虑到渐近性能指标,又兼顾利用有限信息获得最优结果。统计学习理论的理论基础较为扎实而完备,为有限样本学习问题提供了一个有效解决方案。在此基础上,支持向量机作为一种新的学习方法迅速发展起来,已展示出许多优越性,是机器学习领域中的一个
3、研究热点。 2 支持向量机方法的分析与研究 支持向量机方法的主要理论依据是VC维理论和结构风险最小原理,根据有限的样本信息追求最好的推广能力。目前,SVM算法广泛应用于模式识别、回归估计、概率密度函数估计等方面。 2.1 支持向量机方法的主要优点有 (1)专门针对有限样本。能利用有限信息,寻求最优解,不苛求大样本; (2)本质是一个二次型寻优问题。从理论上说,它得到的是全局最优点,克服了一些方法存在的局部最优问题; (3)通过非线性变换转换,能将待解问题转化到高维特征空间,然后构造线性判别函数间接解决原空间中的非线性判别问题。同时,它较好地解决了维数灾难难题,算法的复杂度与样本维数无关。 2.
4、2 SVM的故障分类原理 (1)支持向量机的二值分类。对于两类问题,支持向量机寻找一个超平面将两类样本完全分开,从而完成样本的分类。图1展示了两类的分类超平面情况,图中的圆点、方点分别代表两类不同样本,红圆点与蓝色方点是支持向量,H平面是两类样本的分类超平面。 若两类样本集可分,将它们表示为:,其中y表示样本类别标号。不妨假设存在一个超平面wx+b=0可使得: wx+b+1 yi=+1 wx+b-1 yi=-1 即表示训练样本集线性可分。假设存在两个超平面分别是:H1:wx+b=1 H2:wx+b=-1,那么两个超平面与原点的距离分别为 和。那么两个超平面的距离,是分类间隔,因此求间隔最 大的
5、实质是求最小。进一步考虑到VC维的上界最小要求最小,综合考虑之后,问题转化为如下二次规划问题: 约束yi(wxi)+b) 1,i=1,2,n 关于线性不可分问题,处理的思路是:先选用合适的映射函数,将低维空间的原始数据映射至高维空间,再进行线性分类,最后返回到原空间,完成分类。 考虑到可能存在少数样本被错误分类,引入松弛变量,将优化问题改进为: 新的约束条件:yi(w(xi)+b)1-i, i=1,2,n i0 (2)线性规划支持向量机的二次分类。二值分类、回归算法把问题最终归结为求解二次规划,此法存在计算参数随训练样本的增加而急剧增加的缺点。解决该问题可采用线性规划方法。 设、,两个超平面间
6、的距离为 引入松弛变量,目标函数修正为: (3)多类分类问题。SVM可解决两类分类问题,可视为一个两类分类器。两类分类器无法直接解决多类分类问题。签于此,很多学者提出了多种多类分类算法,主要分为两类:在基本两类分类器基础上直接构造多类分类器。此种方法表面简单、易懂,但是计算涉及过多参数、计算难度较大,分类精度也不高,应用效果不太理想。采用多个两类分类器依次串联,组成一个多类分类器,多类分类逐步转化为两类分类。实际中一般采用此办法解决多类分类问题。多个两类分类器解决多类分类问题的方案有三种:一对一分类、一对多分类和决策树分类。 参考文献: 1顾彬,郑关胜,王建东.增量和减量式标准支持向量机的分析J.软件学报,2013(07). 2丁世飞,齐丙娟,谭红艳.支持向量机理论与算法研究综述J.电子科技大学学报,2011(01). 3郭明玮,赵宇宙,项俊平等.基于支持向量机的目标检测算法综述J. 控制与决策,2014(02).第 4 页 共 4 页