没有合适的资源?快使用搜索试试~ 我知道了~
Journal of King Saud University沙特国王大学沙特国王大学学报www.ksu.edu.sawww.sciencedirect.com基于神经网络的在线评论情感分类方法G. Vinodhini*,R.M.ChandrasekaranAnnamalai University,Annamalai Nagar 608002,India接收日期:2013年7月27日;修订日期:2014年1月5日;接受日期:2014年3月13日2015年10月31日在线发布摘要情感分类的目的是有效地识别以短信形式表达的情感用于情感分类的机器学习方法由于其优越的分类性能而得到了广泛的研究最近的研究表明,基于集成的机器学习方法在分类方面提供了更好的性能在情感分类的文献中,人工神经网络(ANN)很少被研究本文比较了基于神经网络的情感分类方法(反向传播神经网络(BPN)、概率神经网络(PNN)和PNN的均匀集成(HEN)),它们使用不同级别的词粒度作为特征层情感分类的特征。这些评论是通过从亚马逊评论网站收集的产品评论数据集进行验证的。实证分析是做比较的结果,基于人工神经网络的方法与两个统计的个人方法。使用五种不同的质量措施的方法进行评估,结果表明,同质集成的神经网络方法提供了更好的性能。在所使用的两种神经网络方法中,概率神经网络(PNN)在对产品评论的情感进行基于神经网络的情感分类方法与主成分分析(PCA)作为特征约简技术的集成在训练时间方面也提供了优异的性能。©2015作者。制作和主办:Elsevier B.V.代表沙特国王大学 这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍*通讯作者。联系电话:+91 9626885482。电子邮件地址:g.t. gmail.com(G.Vinodhini)。沙特国王大学负责同行审查http://dx.doi.org/10.1016/j.jksuci.2014.03.024情感分析是自然语言处理、文本分析和计算语言学的交叉学科,旨在识别文本情感。Web已经成为一个快速增长的平台,在线用户可以通过文本消息的形式表达他们的情感和情绪由于带有主观意见的文本往往太多,人们很难进行判断,因此需要一种自动的情感分类方法1319-1578© 2015作者。制作和主办由爱思唯尔B.V.代表沙特国王大学。这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。制作和主办:Elsevier关键词人工神经网络;情感分析;文本分类;意见挖掘;支持向量机网络评论情感分类的神经网络方法评价3为了将文本消息分类为不同的情感倾向类别(例如,正/负)。研究人员探索了各种有趣的方法来开发用于评论情绪分类的情绪分类模型,但工作仍在进行中。许多研究人员使用各种机器学习方法对英语文本情感分类进行了研究(Prabowo和Thelwall,2009; Chaovalit和Zhou,2005; Turney,2002; Pang等人,2002)和一些关于中文文本情感分类的研究(Ye et al.,2005,2009;Wang等人,2007; Tan和Zhang,2008)。近年来,神经网络得到了迅速的发展,并在分类问题的各个应用领域得到了成功的应用。 但是,基于神经网络的文本情感分类的最新技术在文献中很少见(Zhu等人,2010年; Chen等人, 2011; Sharma和Dey,2012; Moraes等人,2013年)。近年来,人们越来越关注集成学习技术,它结合了几种基本分类技术的输出,以提高分类精度。然而,与其他研究领域相比,关于基于神经网络的集成方法有助于情感分类的相关工作仍然有限,并且在该领域中需要更广泛的实验工作(Wilson等人,2006; Tsutsumi等人,2007; Abbasi等人,2008; Lu和Tsou,2010; Whitehead和Yaeger,2010; Xia等人,2011;Su等人,2013; Li等人, 2012年)。为了填补这一研究空白,本文对基于神经网络的集成学习用于情感分类的有效性进行了比较研究。特征选择是文本分类中的一个关键问题。特征选择方法的目的是通过去除与情感分类无关的特征来减少原始特征集,以提高分类模型的准确性(Wang等人,2007; Tan和Zhang,2008; Ahmed等人,2008年)。在这项研究中使用PCA,以便从数学上提取所有模型中最常见的特征在这项研究中,三种不同的神经网络模型,如PNN,BPN和PNN(HEN)的同质集成进行了比较。以产品属性为特征,对产品评论的情感进行预测。通过计算五种不同的质量属性,将三种不同的基于人工神经网络的模型的评价结果与两种不同的统计方法(支持向量机和线性判别分析)的评价结果此外,为了更清楚地分析这种关系,在每种方法中开发了三种不同的特征向量模型。模型I只使用unigram特征来创建。模型II使用unigram和bigram特征创建。模型III使用unigram、bigram和trigram特征获得1.1. 动机和贡献关于基于神经网络的分类方法的有效性的现有工作主要在基于文本的主题分类上进行(Ghiassi等人,2012年)。在文本情感分类中,缺乏对基于神经网络的方法的有效性的比较研究文本情感分类在现实世界中的应用越来越受到关注和重视,这促使我们对基于神经网络的情感分类方法进行比较研究这项研究将大大有利于应用程序开发人员以及研究人员在相关领域的情感分析。具体来说,在本文中,我们研究了基于神经网络的方法在情感分类中的有效性,这是本研究的兴趣,原因有三个。首先,基于神经网络的模型已经非常成功-完全应用于文本分类和许多其他监督学习任务(Ur-Rahman和Harding,2012;Ghiassi等人, 2012年)。具有层的神经网络的深层架构(隐藏)比支持向量机(SVM)等“浅层架构”更有效地表示智能行为。神经网络的主要特征,如自适应学习、并行性、容错性和泛化能力,提供了优越的性能。尽管神经网络方法具有上述特征,但目前关于情感分类的一些研究工作解决了整合由多个分类器提供的分类结果的重要性(Xia等人,2011年)。此外,没有太多的调查已经进行了在senti- ment分类,以评估的好处,结合神经网络算法,以提高准确性。此外,现有的情感分类研究大多采用传统的性能评价方法最近的一项研究(Kanmani等人,2007年),然而,表明可以提出各种质量措施,以评估在另一个领域,如软件故障预测分类模型的准确性。这进一步促使本研究评估各种绩效评估指标。本文的工作与现有的工作有以下区别:在这项工作中,概率神经网络和PNN的集成用于情感预测,这是迄今为止在情感分析文献中没有考虑的。本文还通过对评论数据集的大量实验,对现有的用于情感分类的神经网络方法进行了比较研究 虽然提出用于情感预测的新技术不是主要焦点,但我们开发了用于分类的PNN的同质集成,这在情感分类文献中尚未完成(Xia等人,2013年)。大多数早期研究使用各种特征缩减方法,但我们尝试使用PCA和神经网络的混合组合(Cambria等人,2013年)。为了评估预测模型,除了传统的措施,五个不同的质量参数用于捕获的分类模型的各种质量方面训练时间的测量,以显示与基于神经网络的方法的特征约简的优越性。本文的大纲遵循Kanmaniet al.(2007)的论文模型。第2节是用于开发模型的方法。使用的数据来源见第3节。在第4节中介绍了用于对分类进行建模的方法。第5节列出了所使用的各种评价措施。第6节讨论了实验结果。第7节描述了相关工作,第8节总结了已完成的工作并提出了未来的工作。2. 模型方法下文概述了开发和验证分类模型的工作方法。●●●4G. Vinodhini,R.M.Chandrasekarani. 执行数据预处理并分离特征(产品属性)。ii. 开发词向量模型I使用unigram fea- tures,模型II使 用 unigram 和 bigram 功 能 和 模 型 III 使 用unigram,bigram和trigram功能。iii. 对模型I、II和III执行PCA,以产生所有模型的简化特征集。iv. 使用具有降维特征集的相应训练数据集a. 建立支持向量机模型。b. 建立线性判别分析模型。c. 建立基于BPN的神经网络模型。d. 建立基于PNN的神经网络模型。e. 建立了基于概率神经网络的同质集成模型v. 对测试数据集中的每个评论进行分类(正面或负面)vi. 将分类结果与实际结果进行比较vii. 计算总体错误率(误分类)、完整性、正确性、效率和有效性等质量参数,比较各种方法的分类精度,计算学习模型的训练时间。3. 数据源所使用的极性数据集是一组被标记为积极或消极或中性的 产 品 评 论 句 子 。 我 们 从 公 开 的 客 户 评 论 网 站www.amazonreviews.com收集评论句子。本研究选择的领域是数码相机评论。开发了一个Java网络爬虫程序,随机下载970个正面评论和710个在抓取的评论中,我们发现,有边界和中立的评论之间,以及明确的积极和消极的评论。如果一个评论没有明确地指向积极或消极的情绪 , 我 们 就 会 放 弃 它 。 进 行 离 群 值 分 析 ( Briand 和Wust,2002)。25个句子被识别为离群值,不考虑进一步处理。结果,有950个正面评价和705个负面评价。对于我们的二元分类问题,为了避免不平衡的类分布,我们随机选择了600个正面和600个负面评论来建立数据集。3.1. 数据预处理先前的研究表明,文本消息的预处理可以提高文本分类的性能(Salton等人,1997年)。数据预处理中涉及的步骤是词化和转换,以减少歧义。然后过滤停用词以去除常见的英语单词,如在预处理之后,评论被表示为无序的词集合(词袋)。3.2. 特征识别每个产品都有自己的一套功能。由于产品评论是关于产品功能(也被定义为产品属性)的,因此产品功能是对产品评论的情感进行分类的良好指标,以用于基于情感的产品分类.因此,可以根据产品特性选择合适的特性。为了构造用于基于产品特征的情感分类的特征空间,产品特征可以被包括并且被视为特征空间中的特征对于表示为词袋的正面和负面评论句子中的每一个,收集评论句子中的产品特征。从机器学习的角度来看,特征之间既要包含相关信息,又要相互独立,这是很有用的。产品特征的独特之为了识别名词和名词短语,首先对名词和名词短语进行词性标注,然后对名词和名词短语的复习句子进行关联挖掘,识别出名词和名词短语的频繁特征。紧修剪和冗余修剪应用于频繁特征以获得更准确的特征(Hu和Liu,2004)。从评论句中提取的产品特征是一元、二元和三元。表1显示了所用数据模型的描述。3.3. 特征向量将一段文本转换为特征向量模型是用于情感分类的机器学习方法的重要组成部分。使用识别的特征创建评论句子的词向量表示采用项存在法构造特征工作的另一个重点是比较使用不同的n-gram方案的影响出于这个 原 因 , 识 别 的 产 品 特 征 基 于 单 词 粒 度 分 组 为unigram、bigram和trigram(表2)。为了找到词的大小在分类的效果,三个不同的模型开发了不同级别的词的粒度。模型I被表示为仅具有一元特征的特征向量,模型II被表示为具有一元特征和二元特征的组合的特征向量,并且模型III被表示为具有一元特征、二元特征和二元特征的组合的特征向量。表1数据源的属性。模型I模型IIModel III产品相机相机相机号的120012001200评论积极600600600评论负600600600评论特征UnigramUnigram,Unigram,二元模型二元模型&卦号的155属性,1196属性,1215属性,1属性类标签类标签类标签(感悟)(感悟)(感悟)属性整数整数整数类型类二项式二项式二项式属性向量空间1200× 1561200× 1971200× 216网络评论情感分类的神经网络方法评价5表2识别的一元、二元和三元特征样本。表3模型描述(功能减少)。物业型号I型号II型号IIIi. 计算协方差矩阵。ii. 求出特征值和特征向量。iii. 减少数据iv. 计算每次审查的PC字粒度确定的产品特征示例组件数量PC1-PC4pcl至PC6pcl至PC6中文(简体)相机,数码,价格,电池,闪光灯,质量,差异(%)<50.7<52.9<53.4设置,镜头,液晶显示器,手册等标准偏差0.670.670.67双字母(41)原始格式,曝光控制,缩放选项,特征数量(原始)155196215室内图片,室内图像,说明书主成分466功能等(减少)八卦(19)Mb存储卡,图像raw格式,室内审查次数120012001200图像质量等正面评价600600600负面评价600600600三元特征为了降低特征空间的维数,采用PCA作为降维技术。3.4. 特征约简主成分分析是一种线性降维技术,它将数据线性映射到低维空间。映射以这样的方式完成,使得低维表示中的数据的方差最大化(Cambria等人,2013),从而导致新的主成分变量(PC)。所涉及的步骤在图中给出。1 .一、使用weka,模型I,II和III的主要组成部分被确定。使用的停止规则是“特征值>1”。 由于使用了这种停止规则,对于模型I、II和III,PRIN-UNR组件的数量分别减少到4、6和6。对于模型I,获得了具有50.7%累积方差的四个分量模型II得到六个组分,累积方差为52.9%。模型III获得了6个累积方差为53.4%的组分。由于选择了停止规则,差异百分比较小。模型I、II和III的特征向量模型使用减少的主成分作为特征来重构。模型获得的主成分描述见表3。4. 方法在这项工作中,用于开发分类系统的方法是三个神经网络的基础上,两个统计的基础上。支持向量机和线性判别分析是使用快速采矿工具的统计方法所使用的神经网络方法是使用Matlab实现的 BPN4.1. 线性判别分析线性判别分析(LDA)是一种广泛应用的数据分类方法.LDA校准-图1 PCA的步骤计算一个规则,通过减少错误分类概率将评论分类为正面或负面。LDA适用于类内频率不相等的情况。LDA旨在最大化数据集中类间方差与类内方差的比率,从而确保最大分离性(Li等人, 2008年)。4.2. SVM支持向量机是一种基于统计学习理论的分类器,在文本分类中具有很好的分类效果。SVM是一种有监督的机器学习分类技术,它使用核函数将输入特征空间映射 到 一 个 新 的 空 间 , 其 中 类 是 线 性 可 分 的(Joachims,1998)。SVM模型使用快速采矿工具。选择的内核类型是一个多项式内核,内核参数(如缓存大小和指数)具有默认其他参数,如tolerance、numFolds、tolerance和filter-type使用可用的默认值。4.3. 反向传播神经网络神经网络具有许多影响力的属性,如自适应学习,容错和泛化。在这项工作中,BPN是由于其优越的分类能力。BPN训练伪码总结如下(Sharma和Dey,2012)。而误差太大。步骤1.对于以随机顺序呈现的每个训练模式,执行以下操作。a. 将输入应用于网络。b. 计算从输入层到隐藏层再到输出层的每个神经元的输出。c. 计算输出端的误差。d. 使用输出误差来计算输出前图层的误差信号.e. 使用误差信号计算权重调整。f. 进行权重调整。步骤2. 定期评估网络性能。为了获得最佳的神经网络架构,不同的架构进行了测试。建筑形式多种多样6G. Vinodhini,R.M.Chandrasekaran输入:D,一组d个训练元组;K,集合中的模型数量;(K=5)A,学习方案(PNN)输出:复合模型M*。工艺流程:对于i = 1到k,做//创建k个模型:通过用替换对D进行采样来创建引导样本Di。使用Di导出模型Mi;端//要在元组上使用复合模型,X:如果分类,则让k个模型中的每一个对X进行分类,并返回多数票预测(Su等人,2013年)。HEN方法的伪代码和设计在图1A和1B中示出。分别为2和3。5. 评估措施通过改变隐层神经元的数量、学习率、动量率和历元数来实现。表4概述了模型I、II和III的适当结构细节利用Matlab神经网络工具箱设计神经网络结构使用逻辑函数作为激活函数。训练后,对验证数据集进行网络仿真,得到分类输出。4.4. 概率神经网络PNN基于统计贝叶斯分类算法。该函数被组织成具有输入层、模式层、求和层和输出层四层的多层前馈输入层由输入节点组成,这些节点是测量值的集合。模式层完全连接到输入层,训练集中的每个模式都有一个神经元。图案层输出根据图案的类别以下是PNN模型中涉及的步骤(Savchenko,2013)。步骤1.输入层神经元将输入测量分配给模式层中的所有神经元。步骤2.第二层具有使用给定的数据点集形成的高斯核函数。步骤3.第三层对每个复习类的输出进行平均运算。步骤4.第四层执行投票,选择最大值,然后确定类别标签。PNN使用Matlab工具箱实现。训练数据集的大小是隐藏层中神经元的数量(1200)。对于模型I、II和III,平滑因子值为1。4.5. 齐次系综Enhancement方法结合了多个基础模型的预测。基础模型是通过对训练数据的重新排序来创建的同质集成方法集成了相似类型的基本分类器。同质集成训练基地学习者(PNN),每个从不同的引导样本,通过调用一个基地学习算法。通过对训练数据集进行二次抽样并进行替换,获得自举样本,其中样本的大小与训练数据集的大小相同在获得基本学习器后,集成模型通过多数投票将它们组合在一起,多数投票类是十 重 交 叉 验 证 用 于 验 证 分 类 方 法 。 Kanmani 等 人(2007)在软件故障预测的研究工作中使用了五种不同的质量度量来评估分类方法由于这些措施没有调查到目前为止,在情感分析领域,我们已经使用这些措施。5.1. 误分类率错误分类率定义为错误分类的评论数量与预测模型分类的评论总数的比率。错误的分类分为两类。如果负面评论被归类为正面(C1),则称为I类错误。如果正面评价被归类为负面(C2),则称为II类错误(Kanmani例如,2007年)(Eqs. (1)I类错误<$C1=< $总好评数100000 II类错误<$C2=<$总差评数100000总体错误分类率1/4C1/2 C2/3 = 1/3总审查数5.2. 正确性正确性定义为正确分类为正面的评论数量与分类为正面的评论总数之比。低正确性意味着高百分比的类被分类为 正 的 , 这 实 际 上 不 是 正 的 ( Kanmani 等 人 , 2007年)。5.3. 完整性Briand和Wust(2002)将完整性定义为被归类为正面的正面评论数量与评论的总数。它是如果我们以所述方式使用预测模型将发现的阳性百分比的量度(Kanmani等人, 2007年)。图2系综方法的伪码。表4BPN参数。模型三层学习率势头增益历元我四,七,二0.10.41358II六,十九,二0.10.41379III六,十九,二0.10.41388QQNFP在线评论情感分类的神经网络方法评估5.4. 有效性图3 HEN方法的设计。负面评论的句子。fp是预期的正面评论句子的比例(Kanmani等人, 2007年)。有效性定义为正面评价的比例Prfp=fpQfp在所有审查中被视为高风险(Eq.(4))。Let,II型错误分类是Pr(nfp/fp),Pr(fp/fp)是预测的和实际的评论都是积极的(Kanmani等人,2007年)。效率¼Prfp=nfpQ6. 结果和讨论Pr有效性<$Prnfp=fp1-Prnfp=fp45.5. 效率效率被定义为在所有评论中被检查的预测正面评论的比例 ( 等 式 10 ) 。 ( 5 ) ) 。 第 一 类 错 误 分 类 是 Pr(fp/nfp)。nfp是预期比例分类系统是使用第4节中描述的方法开发的。模型I、II和III用作用于分类的特征向量模型。将获得的情感结果与实际情感进行比较。在本研究中使用的所有分类方法的精确度和召回率测量的结果显示在图1A和1B中。4和5.从图中可以观察到。4和5. 的查准率和查全率值更高,图4分类器的精度图5分类器的调用8G. Vinodhini,R.M.Chandrasekaran母鸡接近。此外,精确度和召回值更高的PNN相比,使用的个人分类。对于所使用的所有分类方法,模型III的性能优于其他模型。除了查准率和查全率之外,还计算了上面提到的所有五个质量参数。表5-在分类结果的表格表示中(表5-还计算了总体误分类。表5LDA模型获得的分类结果列于表5. 表5中的结果表明,模型III在I型误差和II型误差方面与模型I和II相比具有更好的性能。表6给出了SVM方法的分类结果。分类结果表明,当与LDA比较时,I型和II型错误对于模型I、II和III是相当小的。这显示了SVM在情感分类中相对于LDA的优越性。由于I型和II型错误较少,因此与LDA相比,SVM的总体误分类也较少。基于反向传播的神经网络预测结果见表7。BPN方法 的 I 型 和 II 型 错 误 率 远 低 于 两 种 单 独 的 分 类 模 型(SVM,LDA)。但是 ,特征向量模型的 性能变化注意到了模型II的总体误分类率较低表5LDA方法的结果。模型I(预测)模型II(预测)模型III(预测)阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总实际阳性(G1)458142600464136600471129600百分之七十六点三百分之二十三点七百分百百分之七十七点四22.6%百分百百分之七十八点四21.6%百分百II类误差II类误差II类误差实际阴性(G2)161439600140460600135465600百分之二十六点八百分之七十三点二百分百百分之二十三点三百分之七十六点七百分百百分之二十二点五百分之七十七点五百分百I类错误I类错误I类错误总计%6191581120060459612006065941200百分之五十点六百分之四十九点四百分百百分之五十点三百分之四十九点七百分百百分之五十点五百分之四十九点五百分百总体错误分类:25.3%总体错误分类:23%总体错误分类:22.1%表6SVM方法的结果。模型I(预测)模型II(预测)模型III(预测)阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总实际阳性(G1)483117600495105600497103600百分之八十点六百分之十九点四百分百百分之八十二点五百分之十七点五百分百百分之八十二点八百分之十七点二百分百II类误差II类误差II类误差实际阴性(G2)125475600119481600113487600百分之二十点八百分之七十九点二百分百百分之十九点九百分之八十点一百分百百分之十八点八81.2%百分百I类错误I类错误I类错误总计%608592120061458612006105901200百分之五十点六百分之四十九点四百分百百分之五十一点二百分之四十八点八百分百百分之五十点八49.2%百分百总体错误分类:20.2%总体错误分类:18.7%总体错误分类:18%表7BPN方法的结果。模型I(预测)模型II(预测)模型III(预测)阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总实际阳性(G1)513876005307060052179600百分之八十五点四百分之十四点六百分百百分之八十七点三百分之十一点七百分百百分之八十六点八百分之十三点二百分百II类误差II类误差II类误差实际阴性(G2)935076007352760084516600百分之十五点五百分之八十四点五百分百百分之十二点九87.%百分百百分之十四百分之八十六百分百I类错误I类错误I类错误总计%606594120060359712006055951200百分之五十点五百分之四十九点五百分百百分之五十点三百分之四十九点七百分百百分之五十点四百分之四十九点六百分百总体错误分类:15%总体错误分类:12.3%总体错误分类:13.6%网络评论情感分类的神经网络方法评价9表9HEN方法的结果。模型I(预测)模型II(预测)模型III(预测)总体分类错误:10.2%总体分类错误:9.7%总体分类错误:8.5%表8PNN方法的结果。模型I(预测)模型II(预测)模型III(预测)阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总实际阳性(G1)539616005415960054952600百分之八十九点八百分之十点一七百分百百分之九十点二百分之九点八百分百百分之九十一点四8.6%百分百II类误差II类误差II类误差实际阴性(G2)745266007352760065534600百分之十二点三百分之八十七点六百分百百分之十二点一百分之八十七点九百分百百分之十点八百分之八十九点二百分百I类错误I类错误I类错误总计%61358712006145861200614586120051.1%百分之四十八点九百分百百分之五十一点二百分之四十八点八百分百百分之五十一点二百分之四十八点八百分百总体错误分类:11.2%总体错误分类:11%总体错误分类:9.7%阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总阳性(G1)阴性(G2)总实际阳性(G1)545556005485260055842600百分之九十点八百分之九点一七百分百百分之九十一点三8.6%百分百百分之九十三占7%百分百第二类错误第二类错误实际阴性(G2)695316006553560060540600百分之十一点三百分之八十八点六百分百百分之十点八百分之八十九点二百分百百分之十 百分之九十百分百I类错误I类错误I类错误总计%614586120061358712006185821200百分之五十一点二百分之四十八点八百分百51.1%百分之四十八点九百分百百分之五十一点五百分之四十八点五百分百比模型I和III更好。类似地,观察到模型II的I型和II型误差小于模型I和III。 BPN的结果表明,BPN方法更好地分 类 unigram 和 bigram 组 合 , 而 不 是 与 unigram 单 独 或unigram,bigram和trigram特征的组合。它也被观察到,BPN 执 行 更 好 的 com-cartridge SVM 和 LDA 的 错 误 率 方面。这显示了神经网络在情感分类中的主导性质。表8显示了PNN分类的结果。表8中的结果显示,与PNN的模型I和II相比,模型III在I型误差和II型误差方面具有更好的性能。分类结果还表明,与BPN,SVM和LDA相比,模型I,II和III的I型和II型错误要小得多。 这表明了PNN与其他个体分类方法相比的优越性。由于I型和II型错误较少,PNN的总体误分类也较少在各个模型中,PNN的整体误分类率在模型I,II和III的分类方法的性能中显示出更好的准确性。这是由于PNN模型的本质是,一旦观察到代表每个类别的一个模式,网络就可以开始泛化到新的模式。 随着额外的模式被观察到并存储到网络中,泛化能力将得到改善,决策边界可能变得更加复杂。在所使用的不同模型中,模型III对于所有分类方法都具有低错误率(BPN作为例外)。由于从列表结果(表5进一步提高准确性。表9示出了PNN方法的均匀集合的结果。I型和II型的错误被观察到大大减少所有的模型(I,II和III)。与PNN相比,这导致最小的总体误分类率。总体误分类率越小,分类器的准确度越高。结果表明,集成方法的性能优于单个PNN神经网络模型。在这些车型中,均匀系综模型的有效性对模型的三. 同质集成方法给出了一个相对更可靠的预测比那些使用一个单一的分类器(PNN)模型I,II和III。从表10中的结果可以发现,支持向量机和线性判别分析方法对于模型I、II和III具有较小的正确性。这表示将检查更多的非正面评论值。与用于模型I、II和III的 其 他 方 法 相 比 , HEN 方 法 的 正 确 性 值 高 得 多(88.7%、89.4%和90.3%)。在单个分类器中,模型分类器的表10正确性结果(%)。分类器模型I模型II模型III母鸡88.789.490.3PNN87.988.189.4BPN84.787.686.1SVM79.480.681.5LDA73.976.877.710G. Vinodhini,R.M.ChandrasekaranPNN对肯定性评论句的分类在模型I、II和III中,就正确性而言,对于大多数分类器,模型III的分类结果是好的。这证明了一元、二元和三元的组合与评论情感分类有很强的关系因此,基于PNN的模型分类评论非常准确,具有很高的正确性。分类模型的完整性见表11。表11显示,与用于所有模型I、II和III的其他方法相比,神经网络的同质集成预测存在的最大正面和负面评论。在三个模型中,HEN的模型III预测了最大的正面和负面评论。在所使用的单个分类方法中,概率神经网络预测与模型I、II和III的BPN、SVM和LDA相比存在的最大正面和负面评论。模型III的所有单独分类器都表现得更好,但BPN模型在使用一元和二元特征而不是包括三元特征时表现得更好。分类方法的有效性见表12。模型的效率见表13。有效性和效率都是指在检查真正的正面和负面评论句子时所花费的富有成效的努力。PNN的齐次集成被证明对所有模型I、II和III都是更有效的。HEN的模型III的效率为90%,这是因为558个实际的积极评论句子被归类为积极评论。在所使用的个体分类方法中,BPN和PNN模型具有更好的效率和有效性。更高的效率表明,表11完整性结果(%)。分类器模型I模型II模型III母鸡90.891.393PNN89.890.191.5BPN85.588.386.8SVM80.582.582.8LDA76.377.378.5在分析中,它是最小的。PNN的模型III的效率这是由于PNN具有单遍训练和通过多变量高斯函数的总和来近似任何PDF的在一般情况下,我们的实验结果表明,在所使用的分类方法中,PNN的同质集成在所有质量指标上都表现得更好在众多的分类方法中,模型III适用于几乎所有的分类方法,除了具有最小变异的BPN因此,包含二元组和三元组提供了比单独使用一元组的分类器的性能更好的性能。接下来,我们想通过测量训练时间来了解特征约简(PCA)的效果。表14总结了所用分类方法的平均培训时间。使用PCA作为特征约简方法可以大大减少训练时间。这表明,文本数据的高数据维数会降低分类器的性能,并导致较长的训练时间。表14显示,对于单个神经网络方法,训练时间显著减少在所使用的神经网络方法中,PNN方法在训练时间的百分比上具有更大的减少。这是因为PNN的实际优势,与BPN不同,PNN完全并行操作,而不需要从单个神经元到输入的反馈。与不使用PCA的集成方法相比,使用PCA的集成方法的训练时间但由于集成方法需要多个分类器的组合,训练时间相对于其他PCA单独分类方法要长。因此,所提出的集成方法适用于需要更可靠的预测而不是考虑训练时间的情况。但是PCA的使用也显示了HEN方法的训练时间的急剧减少。6.1.有效性威胁一些数量的威胁是有一个合理数量的审查这项研究的有效性所提出的方法需要在其他领域进行调查,因为领域的特定性质的情感分析。涉及分离评论句子中描述产品属性的名词的POS标记方法可能不能保证100%完整,因为很少有产品属性的词性可能不是名词的情况。 基于神经网络的模型的性能需要表13效率结果(%)。表14方法培训时间的总结。无PCA(秒)有PCA(秒)型号-型号-型号-型号-型号-型号-方法模型I模型II模型III我IIIII我IIIII母鸡85.787.990.1母鸡243.3262.7277.582.489.992.3PNN84.385.987.1PNN102.8143.3150.433.336.441.0BPN80.281.881.6BPN127.6174.2198.742.145.553.4SVM74.475.376.6SVM140.5186.9220.248.762.575.7LDA70.470.972.3LDA148.1197.1237.568.695.0128.1表12有效性结果(%)。方法模型I模型II模型III母鸡89.790.2591.5PNN88.789.0590.3BPN84.9587.1586.4SVM79.981.382LDA74.7577.0577.95网络评论情感分类的神经网络方法评价11对多类分类进行调查,即考虑对分类进行中立审查。基于神经网络的模型的主导性质与平衡的数据集和模型的结果可能会有所不同,如果类分布是不平衡的。此外,我们将我们的分析限制在最大单词大小为3的产品特征(三元组)。产品属性可能具有更高的n-gram的可能性很小虽然大多数关于产品评论的情感挖掘工作都是使用从亚马逊评论中收集的评论进行的,但很少有基准数据集也可用于产品评论。因此,调查将使用现有的基准数据集进行。虽然在本分析中使用了合理数量的评论(1200),但需要通过增加评论数量来证明7. 相关工作在本节中,简要回顾了迄今为止提出的情感分类方法的相关工作。重点是情感分类研究,将文本分类为积极或消极的情感。在使用机器学习算法对情感分类进行的许多研究中,SVM和朴素贝叶斯已广泛用于在线评论的分类(Pang et al.,2002; Wilson等人,2005;Wang 等 人 , 2007; Tan 和 Zhang , 2008; Prabowo 和Thelwall,2009),文献中的比较研究也表明,SVM优于其他分类器,如朴素贝叶斯,质心分类器,K-最近邻,winnow分类器(Tan和Zhang,2008)。在应用领域中,研究人员非常关注用于商业智能的产品评论的情 感 分 类 ( Wu 等 人 , 2006; Tang 等 人 , 2009 年 ;Prabowo和Thelwall,2009年)。此外,近年来,我们见证了神经网络方法学的进步,例如深层多层神经网络的很少有研究人员尝试基于反向传播神经网络的预测(Zhu 等人 ,2010年; Chen 等人 ,2011; Sharma 和Dey,2012; Moraes等人,2013年)。实验表明,人工神经网络产生优越的结果。 Ghiassi等人(2013)最近使用动态神经网络对Twitter情绪进行情绪分析。这促使我们评估另一种流行的基于神经网络的方法PNN的使用。从文献工作中所做的,PNN模型尚未应用到目前为止,我们的知识的情感挖掘的产品评论。但许多研究人员已经证明,PNN模型比其他各种领域的数据分 类 模 型 更 有 效 ( Savchenko , 2013; Ciarelli 和Oliveira,2009)。此外,近年来,人们对使用集成学习技术越来越感兴趣,集成学习技术将几种基本分类技术的输出组合起来以形成综合输出,以提高分类精度。与其他研究领域相比,关于有助于情感分类的集成方法的相关工作仍然有限,并且在该领域中需要更广泛的实验工作(Wilson等人,2006; Tsutsumi等人,2007; Abbasi等人,2008; Lu和Tsou,2010; Whitehead和Yaeger,2010; Xia等人,2011; Su等人,2013; Li等人,2012年)。然而,据我们所知,还没有研究神经网络集成对提高特征级情感挖掘准确性的影响。虽然已经开发了几种机器学习方法,但特征大小的选择会提高性能。以前的工作使用各种方法来选择特征,例如可分级形容词、作为特征的词性、对数似然比 、 信 息 增 益 、 互 信 息 、 卡 方 检 验 和 文 档 频 率(Hatzivassiloglou和Wiebe,2000; Yu和Hatzivassiloglou,2003; Dave等人,2003; Ga
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功