没有合适的资源?快使用搜索试试~ 我知道了~
可在www.sciencedirect.com在线获取理论计算机科学电子笔记292(2013)135-151www.elsevier.com/locate/entcs的比较基于问题转换的多标号特征选择方法NewtonSpolapouchor1,a,2EvertonAlvaresChermana,3Maria Carolina Monarda,4Huei Diana Leeb,5圣保罗大学数学与计算机科学研究所计算智能实验室13560-970SCristaoCarlos,SP,Brazilb生物信息学实验室WesternParan'aStateUniversity85867-900FozdoIguaIguacu,PR,Brazil摘要特征选择是机器学习中的一项重要任务,它可以通过去除不相关或冗余的特征来有效地降低数据集的维数。虽然大量的研究涉及单标签数据中的特征选择,其中已经提出了过滤不相关特征的措施,但对于多标签数据来说并非如此。这项工作提出了多标签特征选择方法,使用过滤器的方法。为此,使用两种标准的多标签特征选择方法,将多标签数据转换为单标签数据。除了这两种问题转换方法,我们使用ReliefF和信息增益来衡量特征的优良性。这就产生了四种多标签特征选择方法。在10个基准数据集上对这些方法进行了全面的实验评估。结果表明,ReliefF能够选择更少的特征,而不会降低使用所选特征构建的分类器的质量关键词:多标签学习,特征排序,ReliefF,信息增益1介绍特征选择在机器学习和数据挖掘中起着重要的作用,它通常被用作数据预处理步骤。财政司司长的目的是找出少数1这项研究得到了巴西研究理事会FAPESP的支持作者要感谢匿名评审对本文的深刻评论。我们还要感谢Victor Augusto Moraes Carvalho和Antonio Rafael Sabino Parmezan在进一步分析中提供的帮助2电子邮件:newtonspolaor@gmail.com3电子邮件:echerman@icmc.usp.br4电子邮件:mcmonard@icmc.usp.br5电子邮件:hueidianalee@gmail.com1571-0661 © 2013 Elsevier B. V.在CC BY-NC-ND许可下开放访问。doi:10.1016/j.entcs.2013.02.010136N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135描述数据集以及原始特征集的特征集[14],为解决从高维数据中学习时的“维数灾难”问题提供了支持特征选择可以通过去除不相关和/或冗余的特征来有效地降低数据维度,加速学习算法,有时还可以提高它们的性能。事实上,各种研究表明,可以在不降低性能的情况下删除功能[22,7,31,24]。特征选择算法主要通过两种方式来评价特征的优劣:个体评价和子集评价。一方面,个体评估在计算上成本较低,因为这种方法评估个体特征,并根据其类别预测程度为其分配权重(排名)。为此,已经提出了若干特征重要性度量。然而,单个特征评估无法检测冗余特征,因为它们可能具有相似的排名。另一方面,子集评估方法可以同时处理特征相关性和特征冗余性。然而,与个别评价不同的是,在这种方法中,评价措施是根据特征的子集,因此显示出高计算成本。对于单标签学习,其中数据集中的每个示例(或实例)仅与一个类相关联,特征选择已经研究了很多年[31]。然而,在多标签学习的特征选择的结果很少有报道。与单标签学习不同,多标签学习中的每个示例都与标签的子集相关联,即,每个示例可以同时属于多个类。此外,这些标签通常是相关的。多标签学习是一个新兴的研究课题,因为越来越多的应用程序使用多个类来注释示例,例如生物信息学[9],情感分析[1]、媒体语义标注[29,2]和文本挖掘[3]。这项工作提出并实验评估了四种多标签特征选择方法,这些方法使用过滤器方法。 在这种方法中,无论任何特定的分类器如何,都会评估特征的优良性。我们使用标准的多标签特征选择方法,该方法包括首先将多标签数据转换为单标签,然后用于选择特征。我们建议使用ReliefF(RF)和信息增益(IG)作为每个标签的特征评估指标,并使用两种问题转换方法[25],二进制相关性(BR)和标签幂集(LP),以预先将多标签数据转换为单标签数据。二进制相关性方法将多标签数据集转换为多个单标签数据集,多标签中的每个标签对应一个单标签数据集这种转换的一个缺点是它没有考虑标签依赖性,这是多标签学习的一个重要方面[4]。在该变换之后,测量根据多标签中的每个单独标签的每个特征的一致性,并且考虑跨所有标签的所有特征的得分的平均值。最后,选择平均分数大于阈值的特征标签幂集方法通过将训练集中的每个不同标签组合视为该单标签数据集的不同类值,直接将多标签数据集转换为一个单标签数据集,其中任何单标签数据集都是一个N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135137可以直接应用标签特征选择方法。此外,这种方法隐含地考虑了标签依赖性。将提出的特征评价方法与问题变换方法相结合,提出了四种多标记特征选择方法:RF-BR、RF-LP、IG-BR和IG-LP。应该注意的是,第一种方法RF-BR最初是在在[20]中,虽然在少数数据集中进行了评估。在[21]中使用更多数据集对RF-BR进行了评估,在那里将其与另一种直接测量多标签数据集中特征优良度的特征选择方法进行了实验比较。除了这两项工作,我们不知道ReliefF已用于多标签特征选择。在10个基准数据集上对这四种方法进行了实验评估。结果表明,ReliefF使用BR和LP方法,即。RF-BR和RF-LP两种方法能够选择较少的特征,但对数据集的描述较好。本文的其余部分组织如下:第2节简要介绍了多标签学习,第3节介绍了多标签学习的特征选择以及相关工作。第4节描述了所提出的过滤方法,第5节对其进行了实验评估。第6节总结并强调了未来的工作。2多标记学习本节首先介绍了多标签学习的基本概念和术语,然后描述了两种多标签问题转换方法,以及多标签BRkNN[23]算法和本工作中使用的多标签分类器评估措施2.1基本术语和概念设D是由N个样本组成的数据集,E i=(xi,Y i),i = 1. N. 每个示例E i与特征向量xi=(xi1,xi2,., xiM)由M个特征Xj,j = 1. M,以及标签的子集Y i=L,其中L ={y1,y2,. 是q个标签的集合。表1显示了这种表示。 在这种情况下,多标签分类任务包括生成一个分类器H,给定一个不可见的实例E =(x,?),能够准确地预测其标签子集Y,即,H(E)→Y.多标签学习方法可以分为两大类:自适应和问题转换[25]。第一种是扩展特定学习算法的方法,以便直接处理多标签数据。本工作中使用的BRkNN算法属于这一类。第二类是算法独立的,允许使用任何最先进的单标签学习算法来进行多标签学习。它包括将多标签分类问题转化为几个二进制分类问题(如二进制相关方法)或一个多类的方法138N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135表1多标签数据。X1X2...XMYE1X11X12...X1MY1E2X21X22...x2米Y2.... . ...ENxN1xN2...XNMYN分类问题,如标签幂集方法。回想一下,当有两个以上的类值时,单标签学习被称为多类分类,当类值为是/否时,它被称为二进制分类。这两种方法,BR和LP,都用于这项工作,并在下面描述2.2二进制相关性这种方法将多标签学习任务分解为q个独立的二进制分类问题,L中的每个标签一个。换句话说,多标签数据集D首先被分解为q个二进制数据集D yj,j = 1. q,用于构造q个独立的二进制分类器。在每个二进制分类问题中,与相应标签相关的示例被视为阳性,其他示例被视为阴性。最后,为了对新的多标签实例进行分类,BR输出由q个独立二进制分类器正预测的标签的聚合。由于BR随标签集L的大小q线性缩放,因此它适用于不太大的q。然而,这是因为没有考虑到标签之间2.3标签Powerset该方法将多标签学习任务转化为多类学习任务。为此,LP将多标签数据集中的标签的每个唯一组合视为对应的多类数据集的一个类值。换句话说,每个E i=(xi,Yi),i = 1. N被变换为E i=(xi,li),其中li是表示不同标签子集的原子标签。以这种方式,与BR不同,LP考虑标签之间的相关性然而,由于对应的多类数据集的类值的数量由D中的不同标签子集的数量给出,因此这种方法的主要缺点是多类数据集中的一些类值可能与非常小数量的实例相关联,使得多类数据集不平衡。2.4BRk NNBRkNN是惰性k最近邻(kNN)算法的适应,用于对[23]中提出的多标签示例进行分类。尽管两者之间有相似之处,N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135139NΣΣΣ由于BRkNN只执行一次对k个最近邻居的搜索,因此BRkNN比根据BR方法应用的kNN快得多。为了提高预测性能并直接解决多标签问题,在[23]中提出了扩展BRkNN-a和BRkNN-b。这两种扩展都基于标签置信度得分,该得分是根据包含该标签的k个最近邻居的百分比为每个标签估计的。BRkNN-a使用置信度得分大于0的标签对一个看不见的例子E进行分类。5即,E的k个最近邻的至少一半中包括的标签。如果没有标签满足此条件,则输出具有最大置信度分数的标签。另一方面,BRkNN-b用具有最大置信度得分的[s](s的最近整数)标签对E进行分类,其中s是E的k个最近邻居的标签集的平均大小。在这项工作中,我们使用BRkNN-b扩展。惰性算法在评估特征选择方法时很有用,因为惰性算法构建的分类器通常容易受到不相关特征的影响。2.5评估措施与单标签分类不同,新实例的分类只有两种可能的结果,正确或不正确,多标签分类还应该考虑部分正确的分类。为此,一些被称为基于示例的度量是专门为多标签任务定义的,而另一些被称为标记基础的度量是对单标签分类问题的改编。关于多标签分类任务的性能指标的完整讨论超出了本工作的范围,可以在[25]中找到。在下文中,我们简要描述了这项工作中使用的六个多标签评估措施其中四个,汉明损失,子集准确度,F-测量和准确度,由公式1至4定义,是基于示例的测量,其中Δ表示两个集合之间的对称差异;Yi是真标签的集合,Zi是预测标签的集合;I(true)= 1,I(false)=0。1汉明损耗(H,D)=Σ|Y iΔ Z i|.(一)Ni=1N|L|1子集准确度(H,D)=NI(Zii=1N=Y i)。(二)1F-测量 (H,D)=N2 |Y i Z i|.(三)i=1 |Z i|+的|Y i|N1精度(H,D)=N|.|.(四)i =1 |Yi Zi|剩下的两个测量,宏观F测量(Fa)和微观F测量(Fb)分别由等式5和等式6定义,是基于标签的度量,其中TPy,FPy,TNy和FNY分别代表真/假的posi-我我我140N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135对于来自标签集合L的标签y j,N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135141QΣ2Σ一Qj=1j=1PYJj=1F(H,D)=1j=12TPy2TPyJ +FP.(五)yJFb(H,D)=2<$qTqj=1+QTPyjF+F.(六)所有这些性能度量的值都在区间[0.. 1]。对于汉明损失,值越小,多标签分类器的性能越好,而对于其他度量,值越大表示性能越好3特征选择特征选择搜索的特征空间X={X1,X2,...,X M},以便找到一个很好的特征子集XJ<$X,它描述了数据集以及原始特征集X。本节简要介绍描述了基本的特征选择方法和概念,以及支持多标签分类的FS3.1基本概念考虑到与学习算法的相互作用,有三种特征选择方法:过滤器,包装器和嵌入式[14]。过滤器方法独立于学习算法过滤掉不相关的特征。它只使用数据集的一般特征来选择一些特征并排除其他特征。因此,与下面解释的包装器不同,过滤器可能不会为特定的学习算法选择最佳特征此外,滤波器具有快速且易于实现的优点此外,滤波器方法是与多标签特征选择相关的研究论文中更常用的方法[22]。包装器方法需要一个特定的学习算法来评估和确定选择哪些特征。虽然它倾向于找到更适合特定学习算法的特征,但它具有很高的计算成本,因为它必须为所考虑的每个特征集调用学习算法嵌入式方法是一些特定的学习算法所使用的方法,这些算法将特征选择作为训练过程的一部分,例如决策树,以在每个阶段确定具有最佳区分能力的特征。基于过滤和嵌入方法的特征选择算法可以返回所选特征的子集或所有特征的权重(测量特征重要性)。在文献中已经提出了几个特征重要性度量来评估特征分类的良好性,例如Fisher评分,卡方,ReliefF,Gini指数,信息增益,CFS [31]和粗糙集[19],仅举几例。例如,本工作中使用的与ReliefF和Information Gain相关的措施以及第4节中所述的措施,能够搜索提供JyJ+FNPYJNYJ142N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135更好的类之间的可分性和减少的不确定性,分别。尽管对每个特征进行了单独评价,但与ReliefF算法相关的测量考虑了相互作用特征的影响[6]。3.2相关工作特征选择一直是监督、半监督和非监督机器学习中的一个活跃的研究课题,有大量的相关出版物和全面的调查[12,15,31]。然而,大多数与监督特征选择相关的研究主要是支持单标签分类,很少有关于多标签分类的结果我们在[22]中进行的与多标签特征选择相关的系统性综述过程证实了这一点尽管近年来对这一研究主题的兴趣越来越大,但通过系统评价过程发现的相关论文不到60篇。其中一些论文将在下面讨论。在[18,30]中,包装器方法直接在多标签数据中使用评估措施和元启发式搜索最佳特征子集,而决策树分类器中的嵌入式特征选择在[5,10]中提出。然而,大多数论文提出了多标签数据到单标签数据的先前转换,即,,分别使用标签幂集或二进制相关性方法将其映射到多类数据或二进制数据。每当使用BR方法时,在每个二进制数据中独立地选择特征,并且使用例如平均方法来组合结果。在问题转换之后,滤波器方法通常被应用于已经提出了许多方法的单标签数据。为此,不考虑特征之间相互作用的重要性度量,例如信息增益[3,27,7]和卡方[24],是最常用的另一方面,在[20,21]中,我们提出使用ReliefF,它考虑了特征交互。目前,还提出了考虑标签相关性来执行特征选择的方法根据[24]中的LP方法在[30]中,使用了一种涉及输出标签之间的排名质量的评估措施根据修改的LP方法[16],在[8]中应用互信息度量,该方法还考虑了标签依赖性。在[13]中扩展了对称不确定性度量,以找到所有特征和标签对之间的关系。此外,在[11]中,建议在标签排名期间同时进行特征选择和学习标签相关性4多标记FS方法在这项工作中,我们提出了四个特征选择方法,使用ReliefF和信息增益作为特征重要性的措施。由于这两种重要性度量最初都是针对单标签数据定义的,因此使用问题转换方法BR和LP将多标签数据转换为单标签数据,更具体地说,分别转换为二进制数据或多类数据记得BRN. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135143Σv方法不考虑标签之间的相关性,而LP方法是。 提出的四种方法是:(i) RF-BR:基于BR方法的ReliefF(ii) RF-LP:基于LP方法的ReliefF;(iii) IG-BR:基于BR方法的信息增益;(iv) IG-LP:基于LP方法的信息增益。第一个是RF-BR,最初是在[20]中提出的,在那里它在一些多标签数据集上进行了评估。在[21]中,使用更多数据集评价了RF-BR,并与另一种方法进行了比较,该方法使用了[5]中定义的多标签数据的新信息增益这个新的度量直接应用于多标签数据集,作为特征重要性度量。除了这两项工作,我们不知道ReliefF用于多标签特征选择。ReliefF测量单标签数据的属性质量。ReliefF相对于其他严格单变量措施的主要优点是,它考虑了相互作用特征的影响。ReliefF的基本思想是奖励一个属性在来自不同类的一对相似示例上具有不同的值,并惩罚它在来自同一类的示例上具有不同的值[6,17]。对于每个要素,ReliefF输出一个值w,范围从-1到1,其中w为大正值分配到重要的功能。信息增益是一个特征与多标签特征选择相关论文中经常使用的类别标签之间依赖性的度量[22,5]。特征X j的单标签IG,j = 1. M,计算数据集D的熵δ与每个子集D v D的熵的加权和之间的差,其中D v由其中X j具有值v的示例组成。因此,如果Xj在D中有10个不同的值,则加权和将应用于10个不同的Dv数据集。IG度量由等式7定义。IG(D,Xj)=熵(D)-v∈Xj|熵(D)。|entropy (D).(七)|D|特征Xj的高IG值指示Xj与类别标签之间的强依赖性。RF-BR和IG-BR首先将多标签数据集转换为q个二进制数据集。之后,以常规方式使用ReliefF的RF-BR和使用IG的IG-BR评估特征集{X1,X2,.. X M}上。q测量每个特征Xj的值,j= 1.然后对M进行平均,并且分别具有大于或等于ReliefF阈值或IG阈值的平均值的特征是所选择的特征。由于这两种方法都使用标准的多标签滤波器方法,该方法单独考虑每个标签,因此这两种方法不考虑另一方面,RF-LP和IG-LP使用直接从多类数据集计算的要素重要性度量,该数据集使用标签生成6数据固有的不确定性144N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135|D|i=1|L|Powerset方法。 因此,这两种方法都考虑了标签相关性。5实验评价这项工作中提出的四种特征选择方法是使用Mulan7 [26]实现的,Mulan 7是一个基于Weka8 [28]的多标签分类Java类包。所有报告的结果均由Mulan使用配对折叠的10倍交叉验证获得。5.1数据集和设置使用从木兰的存储库9获得的10个基准多标签数据集进行实验表2显示了每个数据集的示例数(N);特征数(M),其中d表示特征值是离散的,n表示特征值是数值;标签数(|L|);标签基数(LC),它是由公式8定义的与每个示例相关联的单个标签的平均数量;标签密度(LD),它是由公式9定义的归一化基数;以及标签的不同组合(DC)的数量。|D|1ΣLC(D)=|Y i|.(八)|D|i=1|D|1 Σ|Y i|LD(D)=.(九)表2实验中使用的数据集的描述数据集NM| L |LCLDDC1-bibtex7395 1836d159 2.40 0.02 28562-cal500502 68n 174 26.04 0.15 502三芯16k00113766 500d153 2.86 0.02 48034-corel5k5000 499d374 3.52 0.01 31755-情绪593 72n 6 1.87 0.31 276-安然1702 1001d53 3.38 0.06 7537-genbase662 1186d27 1.25 0.05 328-医疗978 1449d45 1.25 0.03 949-场景2407 294n6 1.07 0.18 1510-酵母2417 103n14 4.24 0.30 198本工作中使用的BR和LP问题转换方法的特定版本,以及第2.4节中描述的算法BRkNN-b,都是木兰中可用的。BRkNN-b在k=5时执行。Weka提供了ReliefF和Information Gain的实现,它们被建议的7http://mulan.sourceforge.net8http://www.cs.waikato.ac.nz/ml/weka/9http://mulan.sourceforge.net/datasets.htmlN. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135145−方法作为特征重要性度量,并使用默认参数执行。两种测量的阈值均设定为0。01,这可以被认为是保守的阈值。最初,对于每个数据集,使用第2.5节中描述的多标签测量来评估BRkNN-b使用所有特征构建的分类器。这些结果被用作基准来评估所提出的特征选择方法的优劣对于每个数据集,执行四种特征选择方法,并评估使用所选特征构建的分类器此外,对于每个数据集D,由等式10定义的特征减少度量评估通过每个特征选择方法获得的特征的平均减少。特征缩减(D,XJ)= 100100 ×|XJ|.(十)MX是从具有M个示例的数据集D中选择的特征的子集5.2结果和讨论表3显示了每个数据集的平均特征约简及其标准差(括号中)。所有特征的质量都低于特征选择方法使用的阈值的五种情况用−表示。表3平均特征约简和标准差。数据集RF-BRRF-LPIG-BRIG-LP1-bibtex78.31(0.31)38.13(0.68)-0.00(0.00)2-cal5008.82(0.98)0.00(0.00)-0.00(0.00)3芯16k00170.10(0.67)59.66(0.82)-1.04(0.13)四核5k43.99(1.62)21.46(0.76)-0.20(0.21)5情绪23.89(1.94)16.11(1.17)18.61(1.17)70.83(2.85)6-安然1.27(0.30)0.12(0.04)99.55(0.08)0.00(0.00)7-genbase95.51(0.21)96.85(0.07)97.64(0.07)93.43(0.15)8医疗86.62(1.06)94.49(0.27)99.52(0.00)49.68(0.90)九景19.15(0.58)20.54(0.65)3.13(0.75)4.25(1.13)10-酵母40.58(2.74)6.41(1.46)89.22(1.74)-如可以观察到的,除了全部通过信息增益作为特征重要性度量获得的这5种情况之外,平均特征缩减示出了高变化。对于数据集6-enron,它从0.00%(所有特征都被特征选择方法认为是重要的)上升到99.55%(只有0.45%的特征被IG-BR方法认为是重要的)。此外,对于一些数据集,如6-enron,存在高特征约简变化,从IG-BR的99.55%下降到IG-LP的0.00%。接下来,对于每个数据集,仅使用四种特征选择方法中的每一种选择的特征,构建并评估相应的BRkNN-b分类表4显示了这些分类器的平均多标签评价指标(第2.5节)和相应的标准差,以及使用所有特征构建的分类器给出的相应基线考虑146N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135标准偏差、浅灰色单元格突出显示了与相应基线测量相比显示出退化的测量。如前所述,所有特征显示出比特征选择方法所使用的阈值更低的质量的情况由-表示。表4使用BRkNN-b分类器对评估指标(和标准差)进行平均BRkNN-b汉明损耗子集精度基线RF-BRRF-LPIG-BRIG-LP基线RF-BRRF-LPIG-BRIG-LP10.02(0.00)0.02(0.00)0.02(0.00)-0.02(0.00)0.04(0.01)0.07(0.01)0.06(0.01)-0.04(0.01)20.17(0.00)0.17(0.01)0.17(0.00)-0.17(0.00)0.00(0.00)0.00(0.00)0.00(0.00)-0.00(0.00)30.03(0.00)0.03(0.00)0.03(0.00)-0.03(0.00)0.01(0.00)0.00(0.00)0.00(0.00)-0.01(0.00)40.01(0.00)0.02(0.00)0.02(0.00)-0.02(0.00)0.01(0.00)0.01(0.00)0.00(0.00)-0.00(0.00)50.22(0.04)0.22(0.03)0.22(0.03)0.23(0.03)0.24(0.02)0.26(0.07)0.26(0.07)0.28(0.08)0.25(0.06)0.25(0.06)60.06(0.00)0.07(0.00)0.07(0.00)0.07(0.00)0.06(0.00)0.10(0.03)0.04(0.01)0.10(0.03)0.04(0.02)0.10(0.03)70.00(0.00)0.00(0.00)0.00(0.00)0.00(0.00)0.00(0.00)0.93(0.03)0.94(0.03)0.94(0.02)0.92(0.04)0.93(0.02)80.02(0.00)0.01(0.00)0.02(0.00)0.02(0.00)0.02(0.00)0.52(0.08)0.64(0.05)0.57(0.09)0.52(0.06)0.51(0.07)90.11(0.01)0.12(0.01)0.11(0.01)0.12(0.01)0.12(0.01)0.64(0.03)0.64(0.03)0.64(0.03)0.64(0.03)0.64(0.04)100.22(0.01)0.24(0.01)0.22(0.01)0.24(0.01)-0.14(0.03)0.12(0.03)0.15(0.03)0.10(0.02)-F-measure精度基线RF-BRRF-LPIG-BRIG-LP基线RF-BRRF-LPIG-BRIG-LP10.22(0.01)0.27(0.01)0.25(0.01)-0.22(0.01)0.16(0.01)0.21(0.01)0.19(0.01)-0.16(0.01)20.40(0.01)0.40(0.01)0.40(0.01)-0.40(0.01)0.26(0.01)0.26(0.01)0.26(0.01)-0.26(0.01)30.15(0.01)0.19(0.00)0.18(0.01)-0.13(0.01)0.10(0.00)0.13(0.00)0.12(0.00)-0.09(0.01)40.16(0.01)0.12(0.01)0.08(0.01)-0.16(0.01)0.10(0.01)0.08(0.01)0.05(0.01)-0.10(0.01)50.63(0.08)0.62(0.06)0.63(0.06)0.61(0.07)0.59(0.04)0.54(0.08)0.53(0.06)0.54(0.06)0.52(0.07)0.50(0.04)60.40(0.03)0.43(0.02)0.40(0.03)0.45(0.02)0.40(0.03)0.31(0.03)0.32(0.02)0.31(0.03)0.34(0.02)0.31(0.03)70.97(0.02)0.98(0.01)0.98(0.01)0.97(0.02)0.97(0.02)0.96(0.02)0.97(0.02)0.97(0.02)0.96(0.02)0.96(0.02)80.65(0.07)0.73(0.04)0.70(0.06)0.60(0.06)0.64(0.06)0.61(0.07)0.71(0.04)0.67(0.07)0.58(0.06)0.61(0.06)90.68(0.03)0.67(0.03)0.68(0.03)0.67(0.03)0.67(0.03)0.67(0.03)0.66(0.03)0.67(0.03)0.66(0.03)0.66(0.03)100.61(0.02)0.59(0.02)0.62(0.03)0.58(0.02)-0.50(0.02)0.48(0.02)0.51(0.03)0.46(0.02)-FaFb基线RF-BRRF-LPIG-BRIG-LP基线RF-BRRF-LPIG-BRIG-LP10.13(0.01)0.16(0.01)0.15(0.01)-0.13(0.01)0.23(0.01)0.27(0.01)0.25(0.01)-0.23(0.01)20.16(0.01)0.16(0.01)0.16(0.01)-0.16(0.01)0.40(0.01)0.40(0.01)0.40(0.01)-0.40(0.01)30.05(0.00)0.03(0.00)0.03(0.00)-0.05(0.01)0.15(0.01)0.20(0.00)0.18(0.01)-0.13(0.01)40.02(0.00)0.02(0.00)0.01(0.00)-0.02(0.00)0.16(0.01)0.12(0.01)0.08(0.01)-0.16(0.01)50.61(0.08)0.60(0.06)0.61(0.06)0.59(0.06)0.56(0.03)0.64(0.07)0.64(0.06)0.64(0.05)0.62(0.06)0.60(0.03)60.14(0.02)0.12(0.02)0.14(0.02)0.12(0.02)0.14(0.02)0.40(0.02)0.44(0.02)0.40(0.02)0.47(0.01)0.40(0.02)70.77(0.13)0.73(0.14)0.78(0.13)0.74(0.13)0.77(0.13)0.96(0.02)0.96(0.02)0.97(0.02)0.96(0.02)0.96(0.02)80.37(0.06)0.44(0.04)0.41(0.07)0.30(0.03)0.36(0.05)0.64(0.07)0.73(0.04)0.69(0.06)0.61(0.06)0.64(0.06)90.68(0.04)0.67(0.03)0.68(0.03)0.67(0.03)0.67(0.03)0.67(0.03)0.66(0.03)0.67(0.02)0.66(0.03)0.66(0.03)100.42(0.02)0.40(0.02)0.43(0.02)0.39(0.02)-0.63(0.02)0.61(0.02)0.63(0.02)0.60(0.02)-N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135147从表4中列出的总共210个性能度量值(4个FS方法×6个性能度量×10个数据集-30个空特征子集)中,只有20个(不到10%)与相应的基线度量相比表现出退化这可以被认为是一个非常好的结果。事实上,这20个案例中的大多数都涉及汉明损失和子集准确性测量(各6个案例)。回想一下,由等式1定义的汉明损失是未预测的正确标签和预测的正确标签的相对频率子集准确度(由公式2定义)是一个非常严格的评估指标,因为它需要预测和真实多标签的精确匹配,以最大化其价值。148N. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135为了支持实验比较,使用R框架10生成了基于本工作中使用的所有性能度量的蜘蛛图,其中值越大表示性能越好。对于每个数据集,除了数据集2-cal 500,它显示了跨性能测量的类似结果,图1显示了所提出的四种特征选择方法的性能,以及它们的基线(虚线)。因此,更好的结果是远离中心和虚线绘制的结果。BibTeXF-测量corel16k001F-测量Corel5kF-测量0.30.25精度0.20.150.10.05子集-准确度宏平均F-测量0.2精度0.150.10.05子集-准确度宏平均F-测量微平均F-测量微平均F-测量微平均F-测量IG−LP RF−BR RF−LPBaselineIG−LP RF−BR RF−LPBaselineIG−LP RF−BR RF−LP Baseline情绪F-测量安然F-测量发电基地F-测量0.70.6精度0.50.40.3子集-准确度宏平均F-测量10.95精度0.90.850.80.75子集-准确度宏平均F-测量微平均F-测量微平均F-测量微平均F-测量IG−BRIG−LPRF−BRRF−LP基线IG−BRIG−LPRF−BRRF−LP基线IG−BRIG−LPRF−BRRF−LP基线医疗F-测量场景F-测量酵母F-测量0.80.7精度0.60.50.40.3子集-准确度宏平均F-测量0.7精度0.60.50.40.30.2子集-准确度宏平均F-测量微平均F-测量微平均F-测量微平均F-测量IG−BRR F −BR基线IG−BRR F −BR基线IG−BR RF−BR RF−LP基线IG−LPRF−LPIG−LPRF−LP图1.一、使用BRkNN-b作为多标签学习算法对数据集进行图形化评估如可以观察到的,RF-LP总体上显示出良好的性能,其次是RF-BR和IG-LP。另一方面,IG-BR在发现重要特征方面失败最多(4例),其次是IG-LP(1例)。此外,比基线差的少数测量值集中在三个数据集中:3-corel 16 k 001,4-corel 5 k和6-enron。观察这三个数据集有大量不同的标签组合。10http://www.r-project.orgN. Spolaôr et al. /Electronic Notes in Theoretical Computer Science 292(2013)135149实验结果表明,与使用信息增益的方法相比,使用ReliefF作为重要性度量的方法具有相对的优越性这可能是由于ReliefF考虑了特征之间的相互作用。此外,通过使用LP或BR方法构建的特征选择方法获得的度量与相同的重要性度量(即,、ReliefF或信息增益。然而,预计使用LP方法的方法将显示比使用BR方法的方法更好的结果,因为LP考虑了标记相互作用。事实上,预计考虑标签之间相互作用的方法应该会产生更好的结果[4]。尽管如此,在评估特征选择方法时,应该共同考虑两个方面:特征数量的减少与使用所选特征生成的分类器的性能测量值。这种评价最好用图解分析法来进行.在下文中,该分析在数据集8-medical和1- bibtex中示出。本工作中使用的所有数据集的图表可以在http://www.labic.icmc.usp.br/pub/mcmonard/ExperimentalResultsCLEI2012.pdf下图以x轴显示表现指标的值及其相应的基准。y轴显示所选要素的百分比,由下式所选特征= 1-特征缩减,其中特征缩减由等式10定义。请注意,对于汉明损失,靠近图左下角的结果是最好的,因为它们显示了用较少特征获得的低汉明损失值。另一方面,对于其他性能度量,最好的结果是更靠近右下角的结果,因为它们显示出用更少的特征获得的高度量值。图2和图3显示了汉明损耗的结果。可以观察到,对于数据集8-医学-图2-通过IG-BR获得最佳结果,其次是RF-LP和RF-BR。对于数据
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- BSC关键绩效财务与客户指标详解
- 绘制企业战略地图:从财务到客户价值的六步法
- BSC关键绩效指标详解:财务与运营效率评估
- 手持移动数据终端:常见问题与WIFI设置指南
- 平衡计分卡(BSC):绩效管理与战略实施工具
- ESP8266智能家居控制系统设计与实现
- ESP8266在智能家居中的应用——网络家电控制系统
- BSC:平衡计分卡在绩效管理与信息技术中的应用
- 手持移动数据终端:常见问题与解决办法
- BSC模板:四大领域关键绩效指标详解(财务、客户、运营与成长)
- BSC:从绩效考核到计算机网络的关键概念
- BSC模板:四大维度关键绩效指标详解与预算达成分析
- 平衡计分卡(BSC):绩效考核与战略实施工具
- K-means聚类算法详解及其优缺点
- 平衡计分卡(BSC):从绩效考核到战略实施
- BSC:平衡计分卡与计算机网络中的应用
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功