没有合适的资源?快使用搜索试试~ 我知道了~
沙特国王大学学报在电子商务数据中使用情感分析预测客户Pinar Savcia,Bihter DasbaArçelikA. S,. KaraagaCaddesi2-6,SütlüceBeyoglu,34445Istanbul,Turkeyb土耳其埃拉泽23119 Firat大学技术学院软件工程系阿提奇莱因福奥文章历史记录:2022年11月22日收到2023年1月25日修订2023年2月19日接受2023年2月24日在线提供保留字:情感分析自然语言处理深度学习预训练语言模型机器学习电商A B S T R A C T在商业世界中,能够实现持续创新的大公司获得了显著的竞争优势。这些公司关注和监控电子商务、社交媒体和论坛中新闻来源的敏感性为企业决策过程提供了重要信息。通过这些资源中共享的大量数据,可以从人们对服务和产品的评论中进行情感分析当然,所有这些都可以通过准确的情感分析来实现。在这项研究中,为土耳其语,英语和阿拉伯语创建了新的数据集,并首次对三种不同语言的文本进行了比较此外,通过比较土耳其语、阿拉伯语和英语的预训练语言模型以及深度学习和机器学习模型的性能,向研究人员展示了一项非常全面的研究。我们的论文将指导研究人员进行情感分析,了解哪些方法在用不同语言编写的文本中更成功,其中包含不同的类型和拼写错误,哪些因素会影响成功,以及这些因素会影响性能。版权所有2023作者。由爱思唯尔公司出版代表沙特国王大学这是一个开放的访问CC BY-NC-ND许可证下的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍情绪分析(意见挖掘)是通过评估他们对某个主题的感受和想法来揭示社区对该主题的总体态度(Petz,2014)。情绪分析经常用于社交媒体分析、传统金融市场和加密货币市场,以检查用户的行为(Obaidi等人,Nov. 2022年)。在金融市场上,用户可以通过情绪分析来评估他们对市场的看法和他们自己的投资。 利用互联网上的社交媒体平台,许多人可以通过文本表达他们对产品、品牌或服务的想法或感受(Chen等人,2019;Rambocas和Pacheco,2018)。通过自动分析来自调查回复和社交媒体对话的客户反馈他们电子邮件地址:bihterdas@firat.edu.tr(B. 达斯)沙特国王大学负责同行审查也可以定制他们的产品或服务以满足他们客户的需求(Chakraborty等人,2020年)。通过情感分析,品牌更容易接触到需要额外照顾的客户,这将使营销人员能够接触到所有类型的客户,从而提高客户满意度和销售额。不同的方法,如人工操作,关键字处理,和自然语言处理,用于确定什么类型的情感评论或思想包含。手动地,当解释语言在思想中的复杂性时,人的因素是必要的,例如上下文,歧义和讽刺。然而,手动处理的数据太多(Vyas,2019; Dhaoui等人,2017年)。通过关键字处理,根据其情感类别为某些单词或短语分配敏感度分数。这些分数用于计算引用它们的文本的总权重。因此,通过最终的总分,可以找到文本属于哪个情感类别。另一方面,自然语言处理利用机器学习方法,其中语义技术用于情感分析。与所有机器学习方法一样,预测模型被训练为使用称为语料库的数据集对任务进行预测。通过使用编写数据集的语言的特征,通过正确地捕获上下文来估计文本属于消极、中性和积极的情感类(Naresh,2021;Kemalo gJallu等人, 202 1)。https://doi.org/10.1016/j.jksuci.2023.02.0171319-1578/©2023作者。由爱思唯尔公司出版代表沙特国王大学这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。制作和主办:Elsevier可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.comP. Savci和B. Das沙特国王大学学报228本文的主要贡献如下首次对土耳其语、阿拉伯语和英语文本进行了比较情感分析。创建了三个不同的新数据集,其中包含土耳其语,英语和阿拉伯语的电子商务数据比较了流行的深度学习,机器学习方法和预训练的语言模型在不同语言编写的文本上的表现,包括不规则,不同的单词类型和拼写错误,并检查了这些方法对成功的贡献。研究了所研究的接近准则与所获得的性能结果之间的联系本文的其余部分组织如下:在第二节中,我们提出了在文献中的相关工作。在第3节中,我们提供了关于数据集、预处理、分类器和验证方法的基本信息。第四部分是实验结果和讨论,第五是结论.1.1. 动机机器学习(ML)和深度学习(DL)方法已经被用于对从过去到现在用不同语言编写的文本的情感分析研究。此外,最近使用的尝试预测文本中的屏蔽词的预训练语言模型,使用Transformer架构并在大量数据上训练,也开始在自然语言处理应用中频繁地被优选。由于预训练语言模型用于训练的数据集主要由有意义的,规则的和标准的句子结构组成,因此它们通常在文本分类和情感分析应用中获得高性能。在这项研究中,它的目的是通过比较最流行的深度学习,机器学习方法和预训练的语言模型对不同语言编写的文本进行情感分析的性能,来检查方法对成功的影响。在这项研究中,使用了从电子商务网站收到的产品评论和投诉数据,这些数据包括对分类产生负面影响的因素,如不规则的发货、简短的文本、不同的拼写错误和许多单词类型。因此,期望观察在规则和大数据上训练的预训练语言模型的高性能将如何在不规则和较小数据中改变。此外,语言的影响,其中的文本被写在情感分析的其他ML和DL方法的性能进行了观察和检查的标准和获得的结果之间的连接进行了调查。我们的研究将指导情感分析研究人员了解哪些方法在包含不规则,不同单词类型和不同语言拼写错误的文本中更成功,哪些因素可能影响成功,以及这些因素对性能的影响程度。2. 相关作品在本节中,将介绍用于阿拉伯语、土耳其语和英语文本情感分析的方法,以及使用这些方法获得的最高性能。2.1. 土耳其情绪分析对用土耳其语编写的电子商务数据、基于社交媒体的数据、金融研究、土耳其股市评论、英斯塔格拉姆-推特评论和航空公司乘客评论进行了各种情绪分析研究。德米尔詹等(Demircan等,2021)使用机器学习方法对电子商务网站上的产品评论执行情感分析。评论分为三类,积极的,中立的和消极的。所使用的机器学习方法是支持向量机(SVM)、随机森林(RF)、决策树(DT)、逻辑回归(LR)和k-最近邻(k-NN)。实验结果表明,SVM和RF模型优于其他模型,埃尔。Iskender等人(I_skender and Batterfly,2015)进行了一次情感分析,通过比较土耳其大学的排名与相关大学学生的想法和社交媒体评论进行分析研究。在这项研究中,使用了13,007条推文(带有企业家关键词)和14,579条推文(带有创新关键词)数据,支持向量机,多项式朴素贝叶斯(MNB)和数据挖掘算法。在实验中,MNB方法对于阳性和阴性类都取得了90%的成功。Sariman et al.(Sariman ve andMutaf,2020)使用词袋(BoW)和词频-逆文档频率(TF-IDF)对2019冠状病毒病过程中的2,000,000条推文进行了情感分析。82%的成功已经实现了使用逻辑回归(LR)的宵禁的主题。Pervan等人(PervanandYalJummKele,s,2017)通过使用随机森林方法,从他们从电子商务网站收到的移动电话的评论中获得了84.23%的Celik et al.(Celik ve and Aslan,2019)从Facebook网站收集了8770条评论。他们使用随机森林,逻辑回归,朴素贝叶斯和K-最近邻(k-NN)方法进行了情感分析研究。在这项研究中,LR成功率为74.13%。 Karayigit等人 (KarayigGavit等人, 202 1)执行了一项研究,以检测社交媒体上土耳其语的辱骂性评论。将CNN方法与传统的机器学习方法进行了比较。该研究提出的模型为土耳其评论过滤器的创建和开发提供了思路。通过CNN模型获得的0.946 kappa值。Aktas等人(Aktas等人,2021)从一个食品网站的评论中收集了67.6万个数据,并使用了人工神经网络(ANN),K-NN和NB方法。人工神经网络的预测精度最高86%。Kumas等人(Kumas,2021)收集了Twitter数据,并使用正面和负面输出进行了情感分析。在研究中,他们比较了NB,SVM,k-NN和LR方法的性能。它具有最高的F分数,RF为84.23%。Parlar等人(Parlar等人,2017)从Twitter收集了2043条与电信相关的推文。他们在我身上取得了78%的成功。2.2. 英语情感分析在情感分析中使用最多的语言是英语。许多情绪分析研究已在社交媒体评论、新闻、新冠疫苗、健康和金融领域进行。Devika等人(Devika等人,2016)提出了一项关于不同方法(如SVM、NB和基于规则的方法)的情感分析性能的比较研究。他们使用机器学习、基于规则和基于词汇的方法,研究了三组对疫苗的看法:积极的、消极的和中立的。基于规则的方法获得了最高的性能准确性,在审查时为91%,在句 子 水 平 为86% 。 Sunitha 等 人 ( Sunitha 等 人 , 2019. ) 对 来 自Twitter的89,743条推文和关于美国航空公司的14,641条推文进行了发送分析。在研究中,他们比较了NB,RF,SVM和k-NN方法的性能。他们在Twitter上使用SVM获得了83.67%的最高评分,在航空公司数 据 集 中 使 用 SVM 获 得 了 69% 的 评 分 Al-Hadhrami et al. ( Al-Hadhrami et al.,2019)将SVM、RF和K-Mean聚类方法合并为两类●●●●P. Savci和B. Das沙特国王大学学报229Fig. 1. 系统架构。情绪分析研究,积极和消极的,从Twitter的数据。K-means聚类的准确率最高Yan等人(Yan等人,2014)使用中文和英文社交媒体评论进行了情感分析。该方法去除文本中的停用词,并采用n-gram和SVM方法对文本进行处理。他们用SVM达到了98%的准确率,用N-Gram达到了82%的准确率Kumar等人 (Kumar等人, 2021)执行了一项研究,使用美国气道数据集将10,248条推文中的4,392条推文进行训练以进行测试,从而将其分类为阳性或阴性。他们比较了ANN,决策树(DT)和SVM。最高的准确率为75.99%,与人工神经网络。研究表明,CNN、长短期网络(LSTM)和BiLSTM模型在对短文本和长文本进行分类方面都取得了很高的成功(Trueman和Cambria,2021; Baziotis等人,2017; Basiri等人, 2021年)。Minaee等人 (Minaee等人, 2019)使用CNN和BiLSTM深度学习方法研究了IMDB电影评论的情感分析。他们在LSTM方面取得了89%的成功,在CNN模型方面取得了89.3%的成功,在IMDB数据集中提出的LSTM和CNN模型的集成方面取得了90%的成功在(Basiri等人, 2021年),作者使用社交媒体数据进行了情感分析。在这项研究中,他们使用了一种结合LSTM、GRU和CNN模型的结构,以及一种专注于关键词的注意力机制。在Kindle数据集中,基于注意力的双向CNN-RNN深度模型获得了最高的准确率性能,为93.402.3. 阿拉伯语情感分析在过去的10年里,关于阿拉伯语数据集情感分析的研究开始增加(Yue et al.,2019年; Zhang等人,2018; Hussein,2018)。人们通过收集新闻数据、社交媒体、论坛、博客和网站上的评论进行情绪分析研究、情绪估计和各种推断。Abdelgwad等人(Abdelgwad等人,2021)执行了基于方面的情感使用GRU和CNN方法分析阿拉伯语的酒店评论。利用基于交互式注意网络的双向门控递归单位(IAN-BGRU)模型,他们实现了方位极性检测的准确率为83.98%。Alwehaibi等人(Alwehaibi等人,2022)使用LSTM、CNN和社区模型对用阿拉伯语编写的Twitter短文本进行了情感分类研究。他们实现一分类性能96.7%,与模型。Alassaf等人(Alassaf andQingdao,2022)使用单因素方差分析(ANOVA)进行特征分类,对使用阿拉伯语撰写的推文进行情感分类。他们比较了SVM,LR,k-NN,NB和多层感知器(MLP)方法的性能。对于ANOVA p值实验,使用SVM方法获得了最高的F1分数88%。在(Heikal等人,2018年),作者对三种不同的阿拉伯语数据集进行了情感分析,并比较了CNN和LSTM等深度学习模型与集成方法的性能。他们发现集成方法获得了65.05%的准确性能。Brahimi等人(Brahimi等人,2021)对阿拉伯语电影评论进行了情感分析。采用F-测度,分类结果达到96%。总之,在阿拉伯语情感分析研究中,主要使用二元和三元特征向量,并且使用监督机器学习方法进行分类(Rushdi-Saleh等人,2011; Duwairi和El-Orfali,2014; Aly和Atiya,2013)。3. 材料和方法在这项研究中,情感分析研究与3类(积极的,消极的,和中性)是从阿拉伯语,土耳其语和英语写的文本实现用3种不同的语言创建了3个100 K大小的新数据集,然后通过预处理将数据从噪声中去除。将预处理的数据数字化,并将数据分为70%的训练,20%的验证和10%的测试。采用k = 10进行数据验证,以确保数据准确性。这些数据集已准备好用于机器学习、深度学习和预训练模型中的性能比较在P. Savci和B. Das沙特国王大学学报230表1数据上的详细信息产品类别语言数量的样本网站数量电影英语、阿拉伯语80 K1游戏英语、阿拉伯语50 K2小家电土耳其40 K3科技产品土耳其语、英语、阿拉伯语80 K4大型家电土耳其50 K4表2土耳其语/英语/阿拉伯语数据集的示例。语言Negative Neutral Positive土耳其语的例子我们已经把所有的材料都打包好,比拉兹·亚夫是一个很好的人,müthis,performans,sessizçals,ıyor,herkesetavsiyeederim英文示例阿拉伯语的例子一直没有回应后,一个解决难题非常令人沮丧,我的孩子ﺍﺳﺘﻠﻤﺖﺍﻟﻤﻨﺘﺞﻣﻜﺴﻮﺭﻭﻣﺘﺄﺧﺮﺟﺪﺍً�我喜欢它,但我需要购买,这ﺍﻟﻤﻨﺘﺞﻛﺎﻥﺟﻴﺪﻭﻟﻜﻦﺍﻟﺘﻐﻠﻴﻒﻛﺎﻥﺟﺪﺍﺳﻴﺊ它来了,正如我所期望的,我真的很喜欢它,你可以放心购买它,货物交付也很快ﺍﺷﺘﺮﻳﺘﻬﺎﻷﺑﻨﺘﻲﻭﻫﻲﺗﺤﺒﻪﻛﺜﻴﺮﺍ،ﺑﺎﻟﻨﺴﺒﺔﻟﻠﺴﻌﺮﻭﺍﻟﺤﺠﻢﺟﺪﺍﻣﻤﺘﺎﺯ机器学习(ML)部分,将tf-idf和Bag-of-words应用于数据进行特征提取。MNB、SVM和RF方法是最流行的ML方法之一,它们被应用于3种不同语言的数据集,并执行情感分析过程,产生3类输出。在深度学习部分,再次应用了预处理步骤,序列长度设置为120,短序列填充为0。在文本上创建了一个嵌入层,它将卷积网络数据转换为固定大小的向量。然后,分别创建CNN、RNN和LSTM层为了准备模型进行训练,使用优化器'Adam'和'categorical_crossentropy'应用损失函数在训练之后,针对以三种不同语言编写的数据集获得了3类情感分析输出。在预训练模型部分,针对3种不同语言的数据集研究了3种不同的预训练模型。伯特-基-多语言-案例模型已联合应用于三种语言的数据集。此外,对于阿拉伯语数据集,研究了xml-roberta,这是一个自我监控的大型身体上的预训练Transformer模型,以及基于distilbert的多语言案例模型,其速度是mBert-base的两倍在土耳其数据集中,研究了作为土耳其包发布的convbert-base-turkish-cased和distilbert-base-turkish-cased模型最后,在英语数据集中,还作为DistilRoberta-Base模型和Albert-Base-V2预训练语言模型。 图1给出了情感分析实验的流程图。3.1. 数据集在这项研究中,创建了三个用阿拉伯语、土耳其语和英语编写的新数据集。这些数据是从包含产品评论和投诉的电子商务网站收集的。此外,所有三种语言的数据大小都限制为100 K。收集了相同数量的阳性、阴性和中性类别的样本。表1提供了有关数据集的详细信息。Selenium Web驱动程序用于从网站收集数据。重复数据、缺失数据、数字数据、标点符号和表情符号已被清理,并且已在创建的数据集上转换大写/小写字母。此外,还进行了词形还原过程,将不同的词形屈折组合成具有相同含义的词根形式来自多个通道的数据数据被划分为列。它后来被转换为.csv格式。由于数据需要缩放以在较小范围内表示,因此使用独热编码器对数据进行数字化,并通过数据拆分将数据分离之后,进行数据验证表2显示了一个检查-表3预训练模型的参数模型参数隐藏层激活隐藏尺寸初始化程序范围中间尺寸最大位置嵌入Attention头隐藏层批量学习率数量的时段伯特基110米盖卢7680.0230725121212162e-56多语种XLM-罗伯塔碱250米盖卢7680.0230725141212162e-56蒸馏碱134米盖卢7680.023072512126162e-56多语言-casedconvbert-base-106米盖卢7680.0230725121212162e-56土耳其式的蒸馏碱134米盖卢7680.023072512126162e-56土耳其式的albert-base-v211米格鲁7680.0230725121212162e-56新蒸馏罗伯塔碱82个月盖卢7680.023072512126162e-56P. Savci和B. Das沙特国王大学学报231土耳其语/英语/阿拉伯语数据集。此外,创建的数据集已上传到GitHub(Pages,2022)。3.2. 预处理预处理步骤包括数据清洗、数据转换和数据简化阶段。在数据清理部分,标点符号、表情符号、数字数据和句子中的缺失数据已被清理,字母也已减少。在数据转换部分,从网站收集的用户评论被过滤并可用。在数据减少部分,分析数据,删除不适当的它在预先训练的语言模型中被如此使用。在机器学习算法中的清洗数据的文本矢量化步骤中,使用了文本处理中广泛使用的文档表示模型BOW和文本处理中常用的加权方法在该方法中,每个单词的频率(TF)通过乘以逆文档频率(IDF)来表示因此,它降低了重复很多的单词的重要性在深度学习算法的预处理步骤中,执行数据标记化预处理而不是文本向量化。在这部分中,使用Keras库fit_on_texts参数用于根据词频创建单词索引,texts_to_sequences参数用于将每个文本转换为整数序列。此外,pad_sequences用于以相同的长度填充数据集中的数据字符串。3.3. 分类器在本节中,介绍了有关深度学习方法、机器学习方法、预训练语言模型及其实验参数的信息。A. 预训练语言模型在本节中,将介绍用于土耳其语、英语和阿拉伯语文本的预训练语言模型土耳其语的语言模型Bert-base-multilingual-cased:这个模型是一个预先训练的trans-former 模 型 , 使 用 104 种 语 言 的 维 基 百 科 , 使 用 掩 码 语 言 建 模(MLM),并且是大小写敏感的。在该模型中,15%的单词被随机屏蔽作为MLP的输入,并且通过在模型上运行整个屏蔽句子来预测被屏蔽的单词。此外,该模型中的下一句预测(NSP)预测两个句子是否彼此跟随Convbert-base-turkish-cased:该语言模型还在mC 4语料库的土耳其语部分上训练了ConvBERT模型。在该模型中,在整个训练时间内使用512的序列长度(Oflazer和Saraclar,2018)。Distilbert-base-turkish-cased:这个语言模型是一个为土耳其语设计的cased distilled BERT模型,在BERTurk的训练中使用了超过7 GB的原始训练数据英语语言模型Bert-base-multilingual-cased:在实验中,这个预先训练的语言模型被用于英语文本和土耳其语文本的情感分析Distilroberta-base模型:Distilroberta-base是基于Roberta模型的一个简化版本,具有与Distilbert相同的训练过程。它可以为不同的语言显示不同的性能。这个预训练的语言模型,有6层,768尺寸,12个头,区分大小写,共有82个M参数。此外,这种语言模型比基于Roberta的语言模型快得多。Albert-base-v2:ALBERT是一个Transformer模型,在大量英文数据上进行了预训练,并具有自我监控能力。使用BERT,隐藏层的数量是相同的,计算成本也是相同的。该无案例模型有128个嵌入维、12个注意头和11个M参数。阿拉伯语的语言模型Bert-base-multilingual-cased:在实验中,这个预先训练的语言模型被用于阿拉伯语文本以及土耳其语和英语文本的情感分析XML-roberta:这个用于阿拉伯语文本的语言模型与Bert不同,它有更多的词汇。它包含大约250,000个代币。Distilbert-base-multilingual-cased:它是基于Bert的多语言模型的精简版本,是一种预先训练的语言模型。这个区分大小写的模型有6层、12个头和134 M个参数,是在用104种不同语言编写的维基百科数据集上训练的表3显示了所有预训练语言模型的参数。B. 深度学习方法传统的机器学习方法在自然语言处理应用中对文本进行分类时,将相关词保留在短期记忆中。另一方面,深度学习方法可以让单词在记忆中保持更长的时间。自然语言处理中最广泛使用的深度学习方法是递归神经网络,长短期记忆,双向LSTM,门控递归单元和卷积神经网络。递归神经网络用于自然语言处理的递归神经网络方法,将句子中的词与前后词之间的关系保持在记忆中,因此在情感分析、文本分类、问答等应用中取得了很好的RNN与深度学习模型之间最大的区别在于这些模型具有记忆能力。此外,在其他神经网络中,每个输入都是相互独立的,而在RNN中,输入是相互关联的。RNN在输入之间建立关联,以遵循下一步,并在训练时记住所有关联。RNN的缺点是计算缓慢并且难以访问很久以前的信息(Basiri等人, 2021年)。 表4显示了RNN模型的参数。长短期记忆长短期记忆方法是用于克服RNN结构困难的模型之一。LSTM模型在学习上下文敏感语言的语音识别中表现优于RNN。 与标准神经网络不同,LSTM架构具有反馈连接。它通过反馈网络记住随机时间的值。它经常用于递归神经网络。它消除了由RNN引起的长时间遗忘这种架构在许多领域都有应用它经常用于手写识别、语音识别和异常检测等领域。LSTM基本上由一个单元、一个输入门、一个输出门和一个遗忘门组成。细胞以随机间隔记住值。这三个门都控制着进入细胞的信息的进出。LSTM经常用于时间序列分析,因为LSTM具有P. Savci和B. Das沙特国王大学学报232表4RNN模型超参数值辍学率0.50学习率0.001Rithms虽然在监督学习中使用标记的训练数据进行分类,但在无监督学习中使用未标记的数据。随机森林批量大小激活函数10乙状随机森林,监督分类算法之一表5分类损失_交叉熵优化器亚当它是由一个以上的决策树组成的。它主要用于回归和分类问题。在该算法中,输入向量被分配给每棵树,并且在这些树的输出处产生结果(Chen等人, 2022年)。LSTM模型的参数。超参数值LSTM隐藏状态维度196辍学率0.5学习率0.001多项式朴素贝叶斯多项朴素贝叶斯算法是贝叶斯定理的应用,批量大小激活函数10Softmax一个特征独立于另一个特征的强假设。该算法是一种概率分类器,分类损失_交叉熵优化器亚当学习长期依赖性。它解决了时间序列分析中出现的长期依赖性问题和消失梯度问题(Arbane等人, 2023年)。表5显示了LSTM模型的参数。卷积神经网络卷积神经网络是为图像和多维数据开发的模型。CNN由级联的可训练部分组成,由输入层、卷积层、池化层和全连接层组成。在这些模型中,训练过程是在接收到输入数据后通过执行逐层操作来执行的。最后,它给出了一个最终的输出与正确的结果进行比较。产生的结果与期望的结果之间的差异会产生错误。反向传播算法用于将此误差传递到所有权重。权重随着每次迭代而更新以减小误差。在CNN中,输入数据是图像,音频,视频和最近的文本。CNN模型已被应用于自然语言处理领域的各种问题,并取得了成功的结果。CNN广泛用于文本分类、命名实体识别、文本排序和问答应用(Ni等人,2021年)。表6显示了CNN模型的参数。C. 机器学习方法用于自然语言处理的机器学习具有一种结构,该结构使用一些用于信息提取的训练数据来训练系统。机器学习方法,主要用于文本分类和情感分析,分为两部分,监督和无监督学习算法进行研究。表6CNN模型的参数。超参数值LSTM隐藏状态维度196辍学率0.5学习率0.001使用贝叶斯定理计算每个类别的概率,并确定样本概率最高的类别作为输出。朴素贝叶斯分类器已经成功地在NLP应用中实现(Singh等人,2020年)。该算法预测文本的标签。多项式朴素贝叶斯分类算法也是情感分析中广泛使用的算法。支持向量机支持向量机是一种有监督的算法,是一种简单而有效的算法,主要用于文本分类。用创建的向量模型标记的训练数据被分类。一条称为超平面的边界线将这些组分开。目标是找到创建类之间最大分离的超平面。虽然它是为两类问题开发的,但它也优选用于解决多类问题(JayaHidayat等人, 2022年)。在这 项研究 中,对于 机器学 习方法 中的特 征提取, 使用Bag-of_words来测量词频,并在通过TF-IDF对词进行加权,对整个数据集进行加权。“n_ estimators = 20”超参数用于使用随机森林算法创建的Ran- domForestClassifier模型。SVM模型是用从scikit-learn库创建的分类器对象创建的,SVC类,它被指定为“kernel = linear”。默认情况下使用其他参数。默认情况下,通过使用MultinomialNB()类中的scikit-learn库,在MultinomialNB()算法中使用参数。3.4. 验证方法在预测建模问题中,交叉验证方法有助于比较合适的模型,也用于评估和测试模型的性能。在计算模型的效率分数时,交叉验证方法往往比其他方法具有更低的偏差在这项研究中,采用k = 10的 k折交叉验证进行验证,并对模型的估计精度进行了评价4. 实验结果与讨论深度学习模型(如RNN,CNN,LSTM),机器学习(如MNB,SVM,RF)和预训练的LAN的性能批量大小激活函数10Softmax语言模型进行了比较,用于对土耳其语,英语和阿拉伯语的客户评论进行情感分析,这些评论收集自e-分类损失_交叉熵优化器亚当商业网站。在实验研究中,机器学习和深度学习方法的比较如图所示。二、P. Savci和B. Das沙特国王大学学报233图二. DL和ML方法在三种语言中的性能比较。表7三种语言的机器学习模型的性能比较。MNBSVMRFACC(%)预RecF1-sACC(%)预RecF1-sACC(%)预RecF1-s土耳其负710.560.780.65910.810.810.81870.660.700.68中性0.640.680.660.860.940.900.720.790.75积极0.840.470.600.840. 0.770.810.740.620.68英语负78.30.710.850.7786.70.810. 0.820.8287.50.790.790.79中性0.690.590.630.740 0.770.760.700.790.74积极0.810.770.790.910 0.860.880.880.780.83阿拉伯语负71.50.740.720.7391.30.800.850.83790.660.780.71中性0.650.700.670.780.760.770.690.590.63积极0.760.720.740.840.810.830.730.700.71ACC:准确度,Pre:精确度,Rec:召回,F1-s:F1-评分。参见图 2、在机器学习模型之一的RF方法中,在100 K数据上显示最佳准确度值的语言是英语。在阿拉伯语和土耳其语数据集上,SVM方法取得了最好的性能。表7显示了三种语言的深度学习方法(如MNB、SVM和RF)的性能结果。虽然RF仅对英语语言显示出高性能,但SVM方法对所有语言都达到了SVM方法之所以比其他方法具有更好的性能,是因为它采用了不依赖于特征个数的过拟合保护,并且可以处理高维输入空间。SVM方法试图通过特征选择来识别文本中一些不相关的特征。避免这些高维输入字段的一种方法是假设大多数特征是不相关的。在SVM方法中,每个文档的对应文档向量是稀疏的,只有少数非零条目。在文本分类和情感分析中,具有类似归纳偏差的算法(如SVM)更适合于稀疏样本的问题此外,大多数文本分类问题都是线性可分的。在支持向量机的工作中,有寻找分离器的想法,如线性或多项式,RBF。此外,深度学习分类结果在三种语言的数据集中的表现在RNN和LSTM分类任务的数据集中取得了良好的效果。可以看出,深度学习与其他数据集相比,应用程序在英语数据集上取得了更好的成功。已经看到,LSTM算法在三个数据集上实现了几乎相同的性能,CNN方法在土耳其语和英语中具有非常接近的性能值。表8显示了深度学习方法(如RNN,CNN和LSTM)在三种语言中的性能结果。虽然RNN和LSTM模型表现出非常接近的性能值,但RNN模型具有最高的准确性。由于与RNN相比,LSTM可以在内存中长时间处理信息,因此它具有可以记住数据顺序的特性。它的工作原理是消除可以帮助文本分类的未使用的信息。RNN优于其他方法的原因是,它的设计允许RNN表现出时间行为,并在当前步骤与先前步骤有某种关系时捕获顺序数据。这使得它在处理文本数据时成为一种更自然的方法,因为文本是自然连续的。RNN在文本分类和情感分析等应用中表现得非常好,其中顺序信息显然很重要,因为如果不使用顺序信息,含义可能会被误解或语法错误。RNN还可以对文本字符串进行建模,并捕获长期依赖关系。因此,RNN在文本长度很重要的任务中也表现得更好。另一方面,CNN在命名实体识别等应用中工作得更好,其中特征检测在文本中更重要,但无法实现P. Savci和B. Das沙特国王大学学报234表8三种语言的深度学习模型的性能比较RNNCNNLSTMACC(%)预RecF1-sACC(%)预RecF1-sACC(%)预RecF1-s土耳其负87.10.890.820.8582.30.760.840.8085.50.840.880.86中性0.920.930.920.890.890.890.880.880.88积极0.820.870.840.820. 0.740.780.860.810.83英语负89.50.930.890.9182.50.880. 0.81个单位0.8488.80.900.890.89中性0.850.860.850.710 0.860.780.830.860.84积极0.910.940.920.940 0.800.870.940.920.93阿拉伯语负85.30.860.900.8877.60.790.850.8285.00.860.890.87中性0.820.790.810.730.720.720.840.780.81积极0.870.850.860.820.730.770.850.870.86ACC:准确度,Pre:精确度,Rec:召回,F1-s:F1-评分。图3.第三章。土耳其语,英语,阿拉伯语的预训练语言模型的性能比较RNN和LSTM在顺序建模更重要的任务中。在这项研究中,对用于英语、土耳其语和阿拉伯语数据集的句子分析的预训练模型的性能进行了比较。图3显示了预训练语言模型的比 较 。 这 三 种 语 言 的 共 同 语 言 模 型 是 在 阿 拉 伯 语 数 据 集 上“distilroberta-base模型”是英语数据集中基于Transformer的在土耳其语数据集中,尽管3个预训练模型表现出几乎相似的性能,但产生最佳结果的模型是因此,在比较中,阿拉伯语预训练模型在基本包中表现非常好图4中给出了混淆矩阵,以分别检查土耳其语,英语和阿拉伯语的深度学习方法的统计成功率。虽然Multilingual BERT不是专门为阿拉伯语设计的,但它支持多种语 言 , 包 括 阿 拉 伯 语 。 在 阿 拉 伯 语 书 写 的 文 本 中 , Bert-base-multilingual-cased的表现优于其他文本。从未标记文本进行预训练并预测左手和左手条件词的能力会影响这种性能。Bert-基于多语言的情况下,在跨语言迁移任务中比静态的非上下文单词嵌入效果更好。基于Bert的多语言案例语言模型能够找到数十亿个阿拉伯语令牌文本来训练他们的模型。维基百科和新闻网站以及Twitter也一直是重要的数据来源,因为自2022年1月以来,沙特阿拉伯和埃及是Twitter用户数量领先的国家之对于土耳其语,Conbert-base-turkish-cased优于其他语言模型。由于局部特征的提取增加了置信度,P. Savci和B. Das沙特国王大学学报235见图4。 用于深度学习方法的情感分析的混淆矩阵。卷积成功,卷积层被用作在该语言模型的预训练阶段中个人注意力的补充。此外,基于Convbert的土耳其案例模型更成功的原因可能是由于该模型使用卷积核来更好地捕获单词之间的局部相似性并将它们与自我注意力相结合。对于英语,diltilroberta-base在所有模型中具有最高的性能。Bert在文本中使用静态掩码,在每个时期对句子的同一部分进行掩码,而Distilroberta-base使用动态掩码,对不同部分进行不同时期的判决从而固化了模型,提高了性能。5. 结论在这项研究中,创建了包含土耳其语、阿拉伯语和英语等不同语言的电子商务数据的三个语料库,并通过对它们进行语义分析来比较深度学习和机器学习方法的性能为了提取阳性、阴性和P. Savci和B. Das沙特国王大学学报236中性情感类,还使用了不同的预训练语言模型,并且研究了这些模型对情感分析中的准确性性能的贡献。实验结果表明,预训练的语言模型在三类情感分析中取得了良好的性能在阿拉伯语中,bert-base-multi-linguistic-cased预训练模型的性能最好,达到95.1%。在英语中,distilroberta-base模型达到了最高的准确性,91.4%。而深度学习模型之一的RNN模型在英语数据集上实现了最佳性能,89.5%,机器学习方法之一SVM在阿拉伯语数据集上也达到了最高的性能,达到了91.3%。在未来的研究中,我们计划在教育,政治,金融,健康和技术领域进行情感分析研究。 此外,我们还创建了一个非常大的未标记数据集并设计了一项研究。竞争利益作者声明,他们没有已知的竞争性财务利益或个人关系,可能会影响本文报告的工作。确认这项工作得到了土耳其共和国科学、技术和工业部项目“基于AI的智能数字助理客户对话机器人项目”的支持它由范围内的研发项目资助Arçelik数字化转型、大数据和人工智能研发中心的5746号法律。引用Abdelgwad,M.M.,索利曼,T.H.A.,Taloba人工智能Farghaly,
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功