收藏 分享(赏)

数据分析的特征选择实例分析.docx

上传人:kpmy5893 文档编号:7188410 上传时间:2019-05-09 格式:DOCX 页数:15 大小:440.41KB
下载 相关 举报
数据分析的特征选择实例分析.docx_第1页
第1页 / 共15页
数据分析的特征选择实例分析.docx_第2页
第2页 / 共15页
数据分析的特征选择实例分析.docx_第3页
第3页 / 共15页
数据分析的特征选择实例分析.docx_第4页
第4页 / 共15页
数据分析的特征选择实例分析.docx_第5页
第5页 / 共15页
点击查看更多>>
资源描述

1、数据分析的特征选择实例分析1.数据挖掘与聚类分析概述数据挖掘一般由以下几个步骤:(l)分析问题:源数据数据库必须经过评估确认其是否符合数据挖掘标准。以决定预期结果,也就选择了这项工作的最优算法。(2)提取、清洗和校验数据:提取的数据放在一个结构上与数据模型兼容的数据库中。以统一的格式清洗那些不一致、不兼容的数据。一旦提取和清理数据后,浏览所创建的模型,以确保所有的数据都已经存在并且完整。(3)创建和调试模型:将算法应用于模型后产生一个结构。浏览所产生的结构中数据,确认它对于源数据中“事实”的准确代表性,这是很重要的一点。虽然可能无法对每一个细节做到这一点,但是通过查看生成的模型,就可能发现重要

2、的特征。(4)查询数据挖掘模型的数据:一旦建立模型,该数据就可用于决策支持了。(5)维护数据挖掘模型:数据模型建立好后,初始数据的特征,如有效性,可能发生改变。一些信息的改变会对精度产生很大的影响,因为它的变化影响作为基础的原始模型的性质。因而,维护数据挖掘模型是非常重要的环节。聚类分析是数据挖掘采用的核心技术,成为该研究领域中一个非常活跃的研究课题。聚类分析基于”物以类聚”的朴素思想,根据事物的特征,对其进行聚类或分类。作为数据挖掘的一个重要研究方向,聚类分析越来越得到人们的关注。聚类的输入是一组没有类别标注的数据,事先可以知道这些数据聚成几簇爪也可以不知道聚成几簇。通过分析这些数据,根据一

3、定的聚类准则,合理划分记录集合,从而使相似的记录被划分到同一个簇中,不相似的数据划分到不同的簇中。2.特征选择与聚类分析算法Relief 为一系列算法,它包括最早提出的 Relief 以及后来拓展的 Relief 和 ReliefF,其中 ReliefF 算法是针对目标属性为连续值的回归问题提出的,下面仅介绍一下针对分类问题的 Relief 和 ReliefF 算法。2.1 Relief 算法Relief 算法最早由 Kira 提出,最初局限于两类数据的分类问题。 Relief 算法是一种特征权重算法(Feature weighting algorithms),根据各个特征和类别的相关性赋予特

4、征不同的权重,权重小于某个阈值的特征将被移除。Relief 算法中特征和类别的相关性是基于特征对近距离样本的区分能力。算法从训练集 D 中随机选择一个样本 R,然后从和 R 同类的样本中寻找最近邻样本 H,称为 Near Hit,从和 R 不同类的样本中寻找最近邻样本 M,称为 NearMiss,然后根据以下规则更新每个特征的权重:如果 R 和 Near Hit 在某个特征上的距离小于 R 和Near Miss 上的距离,则说明该特征对区分同类和不同类的最近邻是有益的,则增加该特征的权重;反之,如果R 和 Near Hit 在某个特征的距离大于 R 和 Near Miss 上的距离,说明该特征

5、对区分同类和不同类的最近邻起负面作用,则降低该特征的权重。以上过程重复 m 次,最后得到各特征的平均权重。特征的权重越大,表示该特征的分类能力越强,反之,表示该特征分类能力越弱。Relief 算法的运行时间随着样本的抽样次数 m 和原始特征个数 N 的增加线性增加,因而运行效率非常高。具体算法如下所示:2.2 ReliefF 算法由于 Relief 算法比较简单,运行效率高,并且结果也比较令人满意,因此得到广泛应用,但是其局限性在于只能处理两类别数据,因此 1994 年 Kononeill 对其进行了扩展,得到了 ReliefF 作算法,可以处理多类别问题。该算法用于处理目标属性为连续值的回归

6、问题。ReliefF 算法在处理多类问题时,每次从训练样本集中随机取出一个样本 R,然后从和 R 同类的样本集中找出 R 的 k 个近邻样本(near Hits),从每个 R 的不同类的样本集中均找出k 个近邻样本(near Misses),然后更新每个特征的权重,如下式所示:Relief 系列算法运行效率高,对数据类型没有限制,属于一种特征权重算法,算法会赋予所有和类别相关性高的特征较高的权重,所以算法的局限性在于不能有效的去除冗余特征。Matlab 实现源码:1.ReliefF 特征提取算法 Matlab 主程序 1 %主函数2 clear;clc;3 load(matlab.mat)4

7、D=data(:,2:size(data,2);%5 m =80 ;%抽样次数6 k = 8;7 N=20;%运行次数8 for i =1:N9 W(i,:) = ReliefF (D,m,k) ;10 end11 for i = 1:N %将每次计算的权重进行绘图,绘图 N 次,看整体效果12 plot(1:size(W,2),W(i,:);13 hold on ;14 end15 for i = 1:size(W,2) %计算 N 次中,每个属性的平均值16 result(1,i) = sum(W(:,i)/size(W,1) ;17 end18 xlabel(属性编号);19 ylabe

8、l(特征权重);20 title(ReliefF 算法计算乳腺癌数据的特征权重);21 axis(1 10 0 0.3)22 %- 绘制每一种的属性变化趋势23 xlabel(计算次数);24 ylabel(特征权重);25 name =char(块厚度,细胞大小均匀性,细胞形态均匀性,边缘粘附力,单上皮细胞尺寸,裸核,Bland 染色质,正常核仁,核分裂);26 name=cellstr(name);27 28 for i = 1:size(W,2)29 figure30 plot(1:size(W,1),W(:,i);31 xlabel(计算次数) ;32 ylabel(特征权重) ;33

9、 title(char(name(i) (属性 num2Str(i) )的特征权重变化);34 end2.ReliefF 函数程序 1 %Relief 函数实现2 %D 为输入的训练集合,输入集合去掉身份信息项目;k 为最近邻样本个数3 function W = ReliefF (D,m,k) 4 Rows = size(D,1) ;%样本个数5 Cols = size(D,2) ;%特征熟练,不包括分类列6 type2 = sum(D(:,Cols)=2)/Rows ;7 type4 = sum(D(:,Cols)=4)/Rows ;8 %先将数据集分为 2 类,可以加快计算速度9 D1 =

10、 zeros(0,Cols) ;%第一类10 D2 = zeros(0,Cols) ;%第二类11 for i = 1:Rows12 if D(i,Cols)=213 D1(size(D1,1)+1,:) = D(i,:) ;14 elseif D(i,Cols)=415 D2(size(D2,1)+1,:) = D(i,:) ;16 end17 end18 W =zeros(1,Cols-1) ;%初始化特征权重,置 019 for i = 1 : m %进行 m 次循环选择操作20 %从 D 中随机选择一个样本 R21 R,Dh,Dm = GetRandSamples(D,D1,D2,k)

11、 ;22 %更新特征权重值23 for j = 1:length(W) %每个特征累计一次,循环24 W(1,j)=W(1,j)-sum(Dh(:,j)/(k*m)+sum(Dm(:,j)/(k*m) ;%按照公式更新权重25 end26 endReliefF 辅助函数,寻找最近的样本数 K1 %获取随机 R 以及找出邻近样本2 %D:训练集;D1:类别 1 数据集;D2:类别 2 数据集;3 %Dh:与 R 同类相邻的样本距离;Dm:与 R 不同类的相邻样本距离4 function R,Dh,Dm = GetRandSamples(D,D1,D2,k)5 %先产生一个随机数,确定选定的样本

12、R6 r = ceil(1 + (size(D,1)-1)*rand) ;7 R=D(r,:); %将第 r 行选中,赋值给 R8 d1 = zeros(1,0) ;%先置 0,d1 是与 R 的距离,是不是同类在下面判断9 d2 = zeros(1,0) ;%先置 0,d2 是与 R 的距离10 %D1,D2 是先传入的参数,在 ReliefF 函数中已经分类好了11 for i =1:size(D1,1) %计算 R 与 D1 的距离12 d1(1,i) = Distance(R,D1(i,:) ;13 end14 for j = 1:size(D2,1)%计算 R 与 D2 的距离15

13、d2(1,j) = Distance(R,D2(j,:) ;16 end17 v1,L1 = sort(d1) ;%d1 排序,18 v2,L2 = sort(d2) ;%d2 排序19 if R(1,size(R,2)=2 %如果 R 样本=2,是良性20 H = D1(L1(1,2:k+1),:) ; %L1 中是与 R 最近的距离的编号,赋值给 H。 21 M = D2(L2(1,1:k),:) ; %v2(1,1:k) ;22 else23 H = D1(L1(1,1:k),:);24 M = D2(L2(1,2:k+1),:) ;25 end26 %循环计算每 2 个样本特征之间的特

14、征距离:(特征 1-特征 2)/(max-min)27 for i = 1:size(H,1)28 for j =1 :size(H,2)29 Dh(i,j) = abs(H(i,j)-R(1,j)/9 ; % 本文数据范围都是 1-10,所以 max-min=9 为固定30 Dm(i,j) = abs(M(i,j)-R(1,j)/9 ; 31 end32 end2.3 K-means 聚类算法由于聚类算法是给予数据自然上的相似划法,要求得到的聚类是每个聚类内部数据尽可能的相似而聚类之间要尽可能的大差异。所以定义一种尺度来衡量相似度就显得非常重要了。一般来说,有两种定义相似度的方法。第一种方法

15、是定义数据之间的距离,描述的是数据的差异。第二种方法是直接定义数据之间的相似度。下面是几种常见的定义距离的方法:1.Euclidean 距离,这是一种传统的距离概念,适合于 2、3 维空间。2.Minkowski 距离,是 Euclidean 距离的扩展,可以理解为 N 维空间的距离。聚类算法有很多种,在需要时可以根据所涉及的数据类型、聚类的目的以及具的应用要求来选择合适的聚类算法。下面介绍 K-means 聚类算法:K-means 算法是一种常用的基于划分的聚类算法。K-means 算法是以 k 为参数,把 n 个对象分成 k 个簇,使簇内具有较高的相似度,而簇间的相似度较低。K-means

16、 的处理过程为:首先随机选择 k 个对象作为初始的 k 个簇的质心;然后将余对象根据其与各个簇的质心的距离分配到最近的簇;最后重新计算各个簇的质心。不断重复此过程,直到目标函数最小为止。簇的质心由公式下列式子求得:在具体实现时,为了防止步骤 2 中的条件不成立而出现无限循环,往往定义一个最大迭代次数。K-means 尝试找出使平方误差函数值最小的 k 个划分。当数据分布较均匀,且簇与簇之间区别明显时,它的效果较好。面对大规模数据集,该算法是相对可扩展的,并且具有较高的效率。其中,n 为数据集中对象的数目,k 为期望得到的簇的数目,t 为迭代的次数。通常情况下,算法会终止于局部最优解。但用,例如

17、涉及有非数值属性的数据。其次,这种算法要求事先给出要生成的簇的数目 k,显然这对用户提出了过高的要求,并且由于算法的初始聚类中心是随机选择的,而不同的初始中心对聚类结果有很大的影响。另外,K-means 算法不适用于发现非凸面形状的簇,或者大小差别很大的簇,而且它对于噪音和孤立点数据是敏感的。K-means 算法主程序 matlab 实现:1 clc;clear;2 load(matlab.mat)%加载测试数据 3 N0 =1 ; %从多少列开始的数据进行预测分类4 N1 = size(data,1);%所有数据的行数5 data=data(N0:N1,:);%只选取需要测试的数据6 dat

18、a1=data(:,2,3,4,5,6,7,8,9);% 2,4,7,9 2:size(data,2)-17 opts = statset(Display,final);%控制选项8 idx,ctrs,result,D = kmeans(data1,2,. %data1 为要分类的数据,2 为分类的类别数,本文只有 2 类9 Distance,city,. %选择的距离的计算方式 10 Options,opts); % 控制选项,参考 matlab 帮助11 t=data(:,size(data,2),idx(:,1);%把测试数据最后一列,也就是分类属性 和 分类结果取出来:列 + 列12

19、d2 = data(idx=1,11);%提取原始数据中属于第 1 类的数据的最后一列13 a = sum(d2=2) ;14 b=a/length(d2) ;15 totalSum = 0 ;%总的正确率16 rate1 = 0 ;%第一类的判断正确率.分类类别中数据的正确性17 rate2 = 0 ;%第二类的判断正确率.18 if(b0.5) %说明第 1 类属于良性,则 a 的值就是良性中判断正确的个数19 totalSum = totalSum + a ;20 rate1 = a/length(d2) ;21 %然后加上恶性中判断正确的比例22 totalSum = totalSum

20、 + sum(data(idx=2,11)=4) ;23 rate2 = sum(data(idx=2,11)=4)/length(data(idx=2,11) ;24 else %说明第 1 类属于恶性25 totalSum = totalSum + sum(data(idx=1,11)=4) ;26 totalSum = totalSum + sum(data(idx=2,11)=2) ;27 rate1 = sum(data(idx=2,11)=2)/length(data(idx=2,11) ;28 rate2 = sum(data(idx=1,11)=4)/length(data(i

21、dx=1,11) ;29 end30 x1 =1;%第 x1 个属性31 x2 =1 ;%第 x2 个属性32 plot(1:sum(idx=1),data1(idx=1,x1),r.,MarkerSize,12);33 hold on ;34 plot(sum(idx=1)+1:sum(idx=1)+sum(idx=2),data1(idx=2,x1),b.,MarkerSize,12);35 xlabel(记录数);36 ylabel(属性值);37 title(属性 9 的值分布);38 legend(第一类,第二类);39 axis(0 640 0 10)40 rate = total

22、Sum/size(t,1) %总的判断准确率3.一个医学数据分析实例3.1 数据说明本文实验数据来自著名的 UCI 机器学习数据库,该数据库有大量的人工智能数据挖掘数据,网址为:http:/archive.ics.uci.edu/ml/。该数据库是不断更新的,也接受数据的捐赠。数据库种类涉及生活、工程、科学各个领域,记录数也是从少到多,最多达几十万条。截止 2010 年底,数据库共有 199 个数据集,每个数据集合中有不同类型、时间的相关数据。可以根据实际情况进行选用。本文选用的数据来类型为:Breast Cancer Wisconsin (Original) Data Set,中文名称为:威

23、斯康星州乳腺癌数据集。这些数据来源美国威斯康星大学医院的临床病例报告,每条数据具有 11 个属性。下载下来的数据文件格式为“breast-cancer-wisconsin.data”,通过使用 Excel 和 Matlab 工具将其转换为 Matlab 默认的数据集保存,方便程序进行调用。下表是该数据集的 11 个属性名称及说明:对上述数据进行转换后,以及数据说明可知,可以用于特征提取的有 9 个指标,样品编号和分类只是用于确定分类。本文的数据处理思路是先采用 ReliefF 特征提取算法计算各个属性的权重,剔除相关性最小的属性,然后采用 K-means 聚类算法对剩下的属性进行聚类分析。3.

24、2 数据预处理与程序本文在转换数据后,首先进行了预处理,由于本文的数据范围都是 1-10,因此不需要归一化,但是数据样本中存在一些不完整,会影响实际的程序运行,经过程序处理,将这一部分数据删除。这些不完整的数据都是由于实际中一些原因没有登记或者遗失的,以“?”的形式代表。本文采用 Matlab 软件进行编程计算。根据第三章提到的 ReliefF 算法过程,先编写 ReliefF 函数程序,用来计算特征属性,再编写主程序,在主程序中调用该函数进行计算,并对结果进行分析,绘图,得到有用的结论。程序统一在最后贴出。3.3 乳腺癌数据集特征提取本文采用 3.1 节中的 ReliefF 算法来计算各个特

25、征的权重,权重小于某个阈值的特征将被移除,针对本文的实际情况,将对权重最小的 2-3 种剔除。由于算法在运行过程中,会选择随机样本 R,随机数的不同将导致结果权重有一定的出入,因此本文采取平均的方法,将主程序运行 20 次,然后将结果汇总求出每种权重的平均值。如下所示,列为属性编号,行为每一次的计算结果:下面是特征提取算法计算的特征权重趋势图,计算 20 次的结果趋势相同:上述结果是否运行主程序所得的计算结果,看起来不直观,下面将其按照顺序绘图,可以直观显示各个属性权重的大小分布,如下图所示:按照从小到大顺序排列,可知,各个属性的权重关系如下:属性 9属性 5属性 7属性 4属性 2属性 3属

26、性 8属性 1属性 6我们选定权重阀值为 0.02,则属性 9、属性 4 和属性 5 剔除。从上面的特征权重可以看出,属性 6 裸核大小是最主要的影响因素,说明乳腺癌患者的症状最先表现了裸核大小上,将直接导致裸核大小的变化,其次是属性 1 和属性 8 等,后几个属性权重大小接近,但是从多次计算规律来看,还是能够说明其中不同的重要程度,下面是着重对几个重要的属性进行分析。下面是 20 次测试中,裸核大小(属性 6)的权重变化:从上图中可以看到该属性权重大部分在 0.22-0.26 左右,是权重最大的一个属性。下面看看属性 1 的权重分布:块厚度属性的特征权重在 0.19-25 左右变动,也是权重

27、极高的一个,说明该特征属性在乳腺癌患者检测指标中是相当重要的一个判断依据。进一步分析显示,在单独对属性 6,和属性 1 进行聚类分析,其成功率就可以达到91.8%。本文将在下节中的 Kmeans 算法中详细介绍。3.4 乳腺癌数据集聚类分析上一节中通过 ReliefF 算法对数据集的分析,可以得到属性权重的重要程度,这些可以对临床诊断有一些参考价值,可以用来对实际案例进行分析,可以尽量的避免错误诊断,并提高诊断的速度和正确率。下面将通过 K-menas 聚类分析算法对数据进行分析。本小节将分为几个步骤来进行对比,确定聚类分析算法的结果以及与ReliefF 算法结合的结果等。3.5.K-mean

28、s 算法单独分析数据集下面将采用 Kmeans 算法单独对数据集进行分析。Matlab 中已经包括了一些常规数据挖掘的算法,例如本文所用到的 K-means 算法。该函数名为 kmeans,可以对数据集进行聚类分析。首先本文对乳腺癌数据集的所有属性列(除去身份信息和分类列) 直接进行分类,由于数据集结果只有 2 种类型,所以首先进行分 2 类的测试,结果如下:总体将 683 条数据分成了 2 类,总体的正确率为 94.44%,其中第一类的正确率为 93.56%,第二类的正确率为 96.31%。下面是分类后对按照不同属性的绘制的属性值分布图:限于篇幅,只选择了上述 3 个特征属性进行图像绘制,从

29、结果来看, 可以很直观的观察到 K-means 算法分类后的情况,第一类与第一类的分类界限比较清晰。但是不容易观察到正确和错误的情况。下表是分类结果中各个属性的聚类中心:从 K-means 算法的效果来看,能够很准确的将数据集进行分类。一方面是由于该数据集,可能是该案例特征比较明显,另一方面是由于 K-menas 算法对这种 2 类的作用较大。3.6.K-means 结合 ReliefF 分析数据集单从分类正确率和结果方面来看,K-mens 算法已经完全可以对乳腺癌数据集做出非常准确的判断。但是考虑ReliefF 算法对属性权重的影响,本小节将结合 ReliefF 算法和 K-means 算法

30、来对该数据集进行分析,一方面得到处理该问题一些简单的结论,另外一方面可以得到一些对医学处理数据的方法研究方法。首先,本小节首先根据 3.2 节中的一些结论,根据不同属性的权重来对 k-menas 分类数据进行预处理,以得到更精确的结论和对该数据更深度的特征规律。从 3.2 节中,得知属性 9属性 5属性 7属性 4属性 2属性 3属性 8属性 1属性 6,根据 ReliefF 算法原理本文可以认为,对于这种属性 6 和属性 1 重要的特征属性,应该对分类起到更加到的作用。所以下面将单独对各个属性的数据进行分类测试,详细结果如下表:总的分类正确率中,属性 9 最低,属性 6 最高,这与 Reli

31、efF 算法测试的结果大致相似,但是由于 ReliefFar 算法中间部分权重接近,所以也区分不明显。说明特征属性权重的判断对分类是有影响的。上述单独分类中,只将需要分类的列数据取出来,输入到 K-means 算法中即可。由于输入数据的变化,K-means 分类时结果肯定是有差距的,所以单独从一个属性判断其类型是不可靠的。下面选择了单个分类时最高和最低的情况,绘制其分类属性值分布图,如下图所示:下面将对特征权重按照从大到小的顺序,选择相应的数据,进行聚类分析,结论如下:1.直接选择全部 9 种属性,分类成功率为:94.44%;2.选择属性 6,属性 1,分类成功率为:91.36%;3.选择属性

32、 6,1,8 ,3,分类成功率为:93.85%;4.选择属性 6,1,8 ,3,2,4,分类成功率为:94.48%;5.选择属性 6,1,8 ,3,2,4,5,7,分类成功率为: 95.02%;从上面的测试可以看出,选择特征权重最大的 6 个属性,其正确率就达到选择所有属性的情况,因此我们可以认为特征权重最小的几个属性在乳腺癌诊断过程的作用实际可能比较小,实际有可能造成反作用,也就是这几个属性值与乳腺癌没有必然的联系。这一点可以给诊断参考,或者引起注意,进行进一步的研究,确认。3.7 K-means 分成 3 类的情况虽然从上述 2 小节的实验中可以得到该数据集的大部分结果和结论。但是为了将相

33、同类型的数据更加准确的分出,下面将尝试分为 3 类的情况。一方面,可以分析在乳腺癌良性和恶性情况下的显著特征属性;另一方面也可以根据此结果找到更加合理的解决方法。还是采用 Matlab 中的 kmeans 函数,将分类数改为 3,由于分为 3 类后数据类型增多,判断较复杂,所以手动对数据进行分析,将所有特征属性加入进去。运行结果如下,测试数据中总共 683 条,其中良性共 444 条,恶性共 239 条:1.分为第一类的记录中,良性占 96.88%;2.分为第二类的记录中,恶性占 100% ;3.分为第三类的记录中,恶性占 92%;根据上述结果可以认为第一类为良性的分类,第二类为恶性分类,第三

34、类为混合类。对于混合类,说明里面的数据较其他数据更加接近于偏离病例的典型数据,所以进一步分析在第一类中和第二类中的分类正确率:1.第一类为良性,共 448 条数据,分类正确率为 96.88%;2.第二类为恶性,共 99 条数据,分类正确率为 100% ;3.第三类为混合类,共 136 条数据因此单独从分类后的正确率来看,效果有提高,说明对典型的病例数据分类更准确,但是对于第三类数据,而无法区分,因此这种情况下,其意义不在于分类的整体正确率,而在于在一些特殊情况下,可以根据一些重要的特征属性值就可以为患者确诊,从而提高效率和准确率,减少误诊断的几率。上面是将所有属性进行 K-means 变换,下面将结合 ReliefF 算法,先去掉一部分特征权重较小的特征属性后,再进行 K-means 处理。根据 4.2 节中的结论,下面提取权重最大的 6 个属性进行测试,分别是:属性 6,属性1,属性 8,属性 3,属性 2,属性 4。1.第一类为良性,共 281 条数据,分类正确率为 97.51% ;2.第二类为恶性,共 211 条数据,分类正确率为 97.16% ;3.第三类为混合类,共 191 条数据因此,对比可以看到,虽然良性的正确率增加了,但是检测出的数据减少了。第三类混合的数量也增多了,说明提出了特种属性较小的属性,可以更加容易区分极端的病例数据,对极端数据的检测更加准确。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报