没有合适的资源?快使用搜索试试~ 我知道了~
International Journal of Information Management Data Insights 3(2023)100172从时尚领域的在线评论中挖掘常用术语来预测评论有用性MaryamMahdikhani美国南卡罗来纳州查尔斯顿学院供应链与信息管理系aRT i cL e i nf o保留字:评论有用性客户生成的评论主题建模在线时尚零售a b sTR a cT对于消费者来说,网上购买时尚产品是一个具有挑战性的过程。虽然客户可以促进购买,审查内容和有用的投票系统可能是不可靠的。本研究旨在应用语言学的术语识别方法,识别和提取时装评论中的频繁术语,并预测其有用性。特征选择使用潜在狄利克雷分配(LDA)模型的主题,二元语法使用术语频率-逆文档频率(TF-IDF)矢量化和主题加上二元语法使用TF-IDF矢量化。然后,这些特征集用于在不平衡数据集上训练四种监督算法,以突出模型性能。模型使用从Amazon Fashion平台收集的828,700条客户评论的数据集进行验证。实验结果表明,使用TF-IDF矢量化器选择LDA + n-gram 随机森林分类器的性能优于其他模型,准确度为0.81,F1得分为0.78。此外,研究表明,描述面料质量,趋势和时尚美学,尺寸细节,价格和退货体验的评论更有帮助。使用这些结果,客户可以了解如何缩小搜索范围,零售商可以更智能地优化他们的评论系统,特别是在产品描述的1. 介绍客户投入大量时间阅读评论,以了解其他客户的经验.研究表明,销售时尚商品对在线零售商来说是一项有风险的业务,最近的出版物提出了时尚销售和互联网的兼容性问题(Dennison& Montecchi,2017b;Gu等人,2020;Romão等人,2019;Silva&Bonetti,2021)。在线消费者在购买时严重依赖评论(Huang等人,2015; Korgaonkar等人,2006; Stouthuysen等人, 2018; Wei &Lu,2013)。特别是,在追逐时尚产品方面,当在线客户需要体验产品并评估其质量和尺寸时 , 他 们 依 赖 于 阅 读 社 交 媒 体 上 的 评 论 和 信 息 ( AgnihotriBhattacharya , 2016;KawafBulluoglu , 2019;SenLerman ,2007)。然而,如果这些评论不可靠和虚假,它们可能会对客户的决策产生重大影响,特别是当产品昂贵时(Evans等人,2021;Lopes等人,2020;Nakayama& Wan,2017;Sen& Lerman,2007)。由于新型冠状病毒疫情加剧了上述挑战,由于客户的购物行为和偏好发生了变化,他们有更多时间扫描产品和阅读评论,在线时装零售经历了大幅下滑审查互动大幅由于COVID-19的影响,评论的帮助变得比以前更加重要。以前的研究通过关注评级系统、有帮助的投票和不同类别产品的评论长度来确定评论的帮助性(Cao等人,2011; Lee等人, 2021; Moro等人, 2019年)。然而,越来越多的文献研究了通过考虑评论的内容、嵌入的情感和评论者的乐于助人来使评论有用的定性因素&&&&(Agnihotri Bhat-tacharya,2016 ; Malik Hussain,2018 ; Mitra Jenamani,2021 ; RenHong,2019 ; Yang等人, 2021;Zhou等人, 2020年)。 例如, Yu etal.(2012)研究了某些电影评论的写作风格,评论长度,极性和主观性,以评估评论的有用性。一些研究选择了流行的产品(例如, 书籍,杂货,手机,服装和视频)从Amazon.com检查在线客户评论的有用性(Akbarabadi& Hosseini,2020; Park,2018; Zhou等人,2020年)。例如,Park(2018)将数据挖掘方法应用于亚马逊评论,通过仅关注评论超过 十票。 (Zhou等人, 2020年)也实证检验了标题-内容相似性,以及评论的情感一致性,在Amazon.com上有超过10个有用的投票。与这些研究相一致,本研究也强调了复习内容的措辞和结构对复习有用性的预测作用,然而,本研究∗ 通讯作者。电子邮件地址:Mahdikhanim@cofc.eduhttps://doi.org/10.1016/j.jjimei.2023.100172接收日期:2022年6月23日;接收日期:2023年2月10日;接受日期:2023年2月27日2667-0968/Elsevier Ltd.这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)目录可在ScienceDirect国际信息管理数据见解期刊主页:www.elsevier.com/locate/jjimeiM. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)1001722这项研究是感官和昂贵的产品,如那些在时尚界的基础上考虑评论与亚马逊网站上没有帮助的投票。此外,确定最常用的术语 在有用的评论中,评估不同的内容特征,并将其用于不平衡的数据集来预测评论的有用性是本研究中解决的另一个挑战,以填补文献中的空白1.1. 研究目标本研究的研究目的如下。研究目的一:从亚马逊时尚行业的评论内容和评论摘要中识别有用评论中最常用术语的属性,方法是检查来自客户方法的主要变量,以描述时尚产品的质量、与时尚和时尚产品相关的尺寸和测量,以及与交付时间和退货相关的经验。研究目标二:通过将无监督和有监督机器学习算法的组合应用于在线时尚评论来预测评论的有用性。研究目标3:比较应用于不平衡数据集的四种不同的监督机器学习分类器的性能,并选择具有最高准确度的模型由 于 数 据 集 是 不 平 衡 的 , 因 此 使 用 合 成 少 数 过 度 采 样 技 术(SMOTE)来处理数据集并增强机器学习模型的性能(Kirshners等人,2017; Walid等人,2022年)。SMOTE方法基于K最近邻(KNN)算法操作,其中数据点从少数类生成。过采样方法在75%的观测值上进行训练,并在剩余的25%的观测值上进行测试1.2. 研究贡献本研究对文献的主要贡献可总结如下:(i) 在所提出的方法中,三组内容特征是从时尚评论中提取的,包括:- 无监督LDA主题(Blei等人,(2003年)- 具有TF-IDF权重的n-gram向量(Robertson,2004)- 使用TF-IDF向量化器的LDA主题加上n-gram向量(ii) 对来自Amazon.com时尚行业的828,700条评论的探索性分析提供了与在线时尚零售相关的宝贵信息,有助于在线零售商和消费者制定未来的决策策略。在有用的评论中发现的最常见的术语被识别出来,以支持分析和内容特征选择。(iii) 不同的内容特征集被进一步应用于四种有效且鲁棒的监督算法,这些算法被先前的文献用于不平衡数据集分类(Cahyana等人,2019;Khalilia 等 人 , 2011;Mahdikhani , 2022;Mehta&Mishra ,2022;Walid等人, 2022年)。包括以下算法- 随机森林(RF)分类器(Breiman,2001)- 随机梯度提升(SGB)分类器(Friedman,2002; Ye等人,( 2009年)- 支持向量机(SVM)分类器(Burges,1998)- Logistic回归(LR)分类器(Hosmer,2013)(iv) 然后在F1分数、召回率、精确度和准确度方面比较实验结果,以选择对不平衡分类具有最高准确度的模型。各种模型的度量差异相对较小,这突出了模型的鲁棒性Fig. 1. 研究差距现状。本文的其余部分组织如下。在第2节中,提出了一个literature审查。第三部分介绍了本文的研究方法。在第4节中,给出了实验设置以及模型的结果,在第5节中,讨论了本研究的理论和实践意义在第6节中,提出了工作的结论和局限性。2. 相关工作来自网络渠道的网评成为主要来源让消费者在购买产品前了解产品的信息。该研究有助于两个研究方向,即预测评论有用性,以及文本挖掘在时尚行业中的应用。图1说明了现有文献中当前研究的现状。在下面的小节中,通过比较两个研究流的现有研究结果,突出了这项研究的新颖性。2.1. 预测评论有用性越来越多的文献研究了重新查看对在线购物和消费者未来购买的帮助的重要性(Eslami等人,2018; Shengli& Fan,2019)。以往的研究主要集中在两个方面。第一个强调使评论对消费者更有帮助的因素,并将评论帮助作为因变量(Chen,2020; Ren& Hong,2019; Yang等人,2021年)。其次,使用超监督机器学习分类器和深度学习方法预测评论有用性(Lee et al.,2018; Malik& Hussain,2018; Mitra& Jenamani,2021)。 一些研究已经预测了基于有用投票的评论的有用性(Fan等人,2019; Singh等人,2017年)。Kor Fiatis et al.(2012)发现有用的投票和评论长度之间存在正相关关系。他们还解释说,对产品进行详细解释的有用评论通常是积极的或非常积极的。Mudambi和Schu Zeden(2010)通过分析来自Amazon.com的1587条评论,对6x种不同产品的客户评论有用性进行了分析和测试,发现星级评级系统和有用投票之间的相关性很弱。相反,复习深度(极积极或极消极)对复习的有用性有积极的影响。此外,他们还指出,更详细的审查一般是有帮助的。以前的研究也探讨了评论内容的影响(Fang et al.,2016;Li等人,2013;Schindler& Bickart,2012;Wu等人, 2021;Zhou等人, 2021)和审查情绪(Huanget al., 2018; Li&Huang,2020;Ren& Hong,2019b;Yin等人,2014年,在《帮助》杂志上发表。Mitra and Jenamani(2021)分析了来自五类产品的2000条评论样本,通过考虑内容特征来预测评论的有用性。然而,每天发布的评论数量正在迅速增加,大数据分析的重要性引起了研究人员对评论有用性的关注。M. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)1001723Yu et al.(2012)通过在电影评论数据集上应用一组实验来检查评论有用性,从而利用所有评论的写作风格、评论长度、主观性和平均评分。Heng et al.(2018)使用亚马逊对杂货产品的评论数据,使用LDA方法研究影响在线食品购买的因素。Park(2018)通过数据挖掘方法,在Amazon.com上选择了41,850条超过10票的评论,重点关注1996年5月至2014年7月期间的四种不同产品类型。他们的研究基于评论的心理特征,通过将文本转化为数字分数来预测评论的有用性。除了这些研究外,我们还将LDA等无监督机器学习算法应用于Amazon.com的最新数据集,以识别常用术语作为监督机器学习分类器的输入,从而预测评论的有用性。Fan等人(2019)构建了几个关于帮助的实验通过考虑标题、描述、产品品牌和类别来识别和回归在线评论。目前的研究通过只强调时尚产品并应用机器学习方法来预测基于内容的评论的有用性来促进这项研究。(Zhou等人,2020)通过分析Amazon.com上的127,547条评论,实证检验了标题相似性和情感一致性对评论有用性的影响。他们的研究结果表明,评论标题和内容之间的相似性对评论的有用性有积极的影响。在他们的研究中,TF-IDF技术被应用于确定评论标题和内容之间的文本相似度,而在目前的研究中,评论内容的措辞和结构是重点,因为在时尚界,评论标题大多是简短和笼统的标题。Akbarabadi和Hosseini(2020)从1996年至2014年的Amazon.com中选择了475篇超过10票的书评他们应用RF和决策树分类器来预测评论有用性 , 重 点 关 注 标 题 特 征 。 Yang et al. ( 2021 ) 分 析 了 来 自Tripadvisor.com的51,627条评论,以探索经理回应和消费者评论之间的主题相关性对评论有用性的影响。他们的研究表明,主题与文本情感的一致性对评论有用性有积极的影响,这证实了以前的研究结果。目前的研究有助于这一领域的文献,通过检查828,700评论从时尚部门的Amazon.com来分析审查有用的内容特征。在现有文献的现阶段,这项研究是第一个对如此大量的评论进行内容特征分析以预测评论的有用性的2.2. 时尚领域的文本挖掘几项研究已经提出了用于评论数据的文本挖掘方法,以预测时尚行业中的颜色或风格趋势(Gu等人, 2020 b; Kawaf& Bulluoglu,2019; Romão等人,2019; Song& Mei,2018)。最近的几项研究集中在将文本挖掘应用于服装行业(Shah等人,2021; Youn& Jung,2021 ) , 特 别 是 时 尚 产 业 ( An &Park , 2020; Beheshti-Kashi&Thoben , 2016; Casadei &Lee , 2020 ) 。 Dennison Montecchi(2017a)解释了在线消费者评论对女性时尚消费者后续购买决策的影 响 研 究 结 果 显 示 , 具 有 可 信 度 和 正 面 话 语 的 评 论 An 和 Park(2020)通过分析29,436篇博客文章来研究时尚趋势,以建立语义网络分析并预测未来趋势。 Lang等人(2020)通过对不同时装租赁公司的2398条评论进行LDA主题分析,评估了消费者对时装产品的租赁体验。Casadei和Lee(2020)通过分析2018年时装周期间近10万条推文,调查了时装业与全球时尚主要城市之间的关系在他们的研究中,文本内容被分配到预定义的集群。虽然,一些研究将主题建模和情感分析应用于文本,包括来自Twitter的文本(Mahdikhani,2022;Mishra等人, 2021; Neogi等人, 2021)和综述(Kumar等人,2021; Mishra等人, 2020年,有一项研究在时尚领域应用机器学习技术以实现这些目的方面存在差距。研究文献表明,没有一项与时尚相关的研究将监督机器学习分类器应用于大型且不平衡的时尚数据集,以预测评论的有用性并识别此类评论中使用最频繁的术语3. 研究方法在本文中,目标是确定最频繁的术语相关 通过统计所有有/没有有用投票的评论来评估消费者的在线时尚购物体验。然后通过向量化和主题分析提取内容特征,并将其作为分类器的输入来预测评论的有用性。提出了一种利用三组内容特征应用于四种监督机器学习算法的方法,以比较分类器在有用性预测方面的性能。该过程的结果是一组有效的内容特征和最健壮、最准确的模型。三组内容特征包括(i)使用LDA模型的主题分析;(ii)使用TF-IDF向量化器的n-gram分析;以及(iii)主题加上使用TF-IDF矢量化的n-gram。然后将上述特征集应用于监督分类器,包括(i)RF分类器(Breiman,2001),(ii)SGB分类器(Friedman,2002;Ye等人,2009),(iii)SVM分类器(Burges,1998),和(iv)LR分类器(Hosmer,2013)。图2说明了所提出的方法的研究框架。在下面的小节中,将讨论系统架构及其实现。3.1. 数据收集和预处理为了实施这项研究,与亚马逊时尚行业相关的Amazon.com产品评论数据的子集是重点(Ni,2018)。特别是,使用了一个针对时尚和昂贵产品的数据集,例如通过亚马逊销售的时尚产品,其中包括2004年5月至2018年7月亚马逊时尚上18,637种产品的近883,637条评论。数据集已清理并缩小到搜索条件包括带有验证标签的评论,并显示消费者购买了产品,然后写了评论(Ren &Hong,2019 a).为了防止数据收集中的偏斜和偏差,严重偏向特定性别的产品类别(例如,男士和女士部门的配件,如皮带、太阳镜、钱包、围巾和围巾)被移除。此外,目前的评论被删除,确保一个有意义的时间段后,张贴重新查看计数的数量有帮助的投票。 请注意,对于2018年7月,发布时间相对接近数据收集日期的评论不包括在研究中。这项研究的评论选择范围缩小到亚马逊时尚部分,因为它拥有时尚领域最大的可用数据集,评论上有经过验证的标签(即,验证标签代表评论的可信度)。综述的检索标准包括以下排除标准:- 排除标准1:删除没有验证标签的评论- 排除标准2:删除非英语评论。- 排除标准3:删除评论少于10条的产品。- 排除标准4:删除与手表、太阳镜等配套产品相关的评论。因此,选择了656,230条经过验证的评论。图3示出了数据收集过程。数据包含两组不同的信息。一组信息与消费者的评论有关,另一组信息与产品的描述有关。本研究的目的适合与消费者评论相关的第一类数据集。消费者M. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)1001724图2. 研究框架。图三. 数据收集程序。谁发现审查有帮助也提供。这些数据被进一步分为两类:有帮助的评论和没有帮助的评论。评论与 1个或多个有用的投票,以及相关的内容标题,以供评论在有意义的持续时间内,被认为是有用的评论,而那些没有投票的评论被认为是无用的评论表1显示所有评论属性及其描述,图4示出了Amazon.com的时尚部门的评论的示例。以前的研究通过只关注至少有一个有帮助的投票的评论而忽略没有投票的评论来检查评论的有用性(Malik,2020; Malik &Hussain,2018;Yang等人, 2017年)。M. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)1001725∏|���)()log=log()()表1查看属性和说明。见图4。 例如亚马逊网站上的一篇评论。模型的准确性和防止离群值的存在,(ii)与其他主题建模技术相比,包括BERTopic和Top2 Vec,它们对较短的文档具有更好的性能,LDA对较长的输入文档和小数据集仍然有效,(iii)与其他主题建模相比,LDA方法支持Python编程中Sklearn和Gensim包中的动态主题建模,以及(iv)在速度和资源方面,其他主题建模方法- ODS的训练时间长,需要昂贵的计算资源,而LDA方法速度快,成本低。然而,由于LDA模型中的一些研究还专注于根据收到的投票数与投票池中参与者人数的比率,基于用户投票预测评论有用性(Malik& Hussain,2018; Qazi等人,2016年)。然而,在这项研究中,使用二元响应变量来评估评论中有帮助的投票数量,从而检查了分类器的性能。在将评论标记为有帮助和无帮助评论的初始处理步骤中,没有帮助投票的评论和很少的一般词被标记为无帮助评论。 由于大量评论(426,550篇评论)没有有用的投票,因此采用了过采样技术,其中少数类别(具有一个或多个有用投票的评论)在训练数据集中随机重复。此外,选择了对少数类中的分类错误敏感的惩罚机器学习算法。该数据集被分为训练集和测试集,其中75%分别为25%当训练的顺序被调整时,重要的是调整LDA参数(Agrawal等人,2018年)。因此,选择在Python中可调的LDA超参数在LDA模型中,观察到单词������此外,=1���������因此,一个文档���������在该模型中,存在主题分布的矩阵X,其被表示为具有在“X“词汇上的多项分布的X���������“ 文档特定混合物的矩阵X是针对��������� 对于每个词,主题���������从对应于““的主题分布中提取的������因此,模型的总概率如下:3.2. 特征选择在从数据集中提取特征之前,对原始文本进行预处理。由于原始文本可能包含俚语、表情符号和非结构化的���������������������(��������� ������;���=1���������������;���=1���(���,���)(������,���������,���)(一)为了提高算法的性能,对数据进行了清理和重新格式化。在这项研究中,文本预处理是通过以下组件:字符串清洗,标记,停止词删除,词形还原,和词干。3.2.1. 主题建模LDA模型是在最近的研究中广泛使用的技术(Cao等人,2007;Kalepalli等人,2020; Williams& Betak,2018)。LDA是一种无监督的机器学习技术,它将文档作为有限数量的主题进行检查。此外,每个主题都是一些单词的混合体。该技术用于提取特征以便在我们未来的分析中使用,并以更高的准确性预测评论的有用性。Blei et al.(2003)介绍了LDA模型作为一个更完整的生成模型。一些研究采用了LDA请注意,“主题”表示主题“主题”的单词分布,���������indicates the word in document��� for the topic���.对于非连续参数范围,选择参数类型,并且对于顶部的数量,选择整数参数范围。此外,为了调整训练集,在75%的训练集(即,将数据集分成75%的训练集和25%的测试集),使用6015%作为训练集,15%作为验证集。针对15、25和35个主题构建了多个LDA模型,学习衰减为0.5、0.7和0.9来检查模型困惑度的所有可能组合主题一致性通过逐点互信息(PMI)度量自动评估,该度量已应用于最近的研究(Xie et al.,2021;Zhao等人,2021年)。当且仅当PMI值越高,主题连贯性越强。计算如下:(i)与其中每个文档仅被分配给一个主题的BERTopic和Top2Vec方法相比,在LDA方法中,每个文档在其中具有多个主题,增强了���������(������,������������,������������������((二)|审查属性描述已验证亚马逊验证他们是否用该帐户购买了它评论文本审查内容评审总结标题中的综述投票对评论有整体产品评级M. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)1001726[()]������∑���)()=���包含在这个池子里。考虑到(二)作为期限的权重,���∑12���12���图5. LDA的相干测量由方程式(1),���(������,������)是������和������在测试文档中的联合概率,���(������)和���(������)分别是词������和词������出现在测试文档中的概率。选择前10个单词来计算每个主题的PMI得分的每对平均值此外,困惑(Blei等人,2003),其是测试文档中出现单词的可能性的几何平均值,计算并定义如下:图第六章15个主题中所有单词的wordcloud。3.2.2. 词汇特征在文本检索中,用于搜索相关文本,被视为一组术语。在这项研究中,通过转换每个文档的非结构化文本,(∑log(������))������������将其转化为数字向量。特别是,考虑到一堆文件������������������������������= exp −������(三)={,,������������,.���由方程式(2)、������是测试文档中的word���,������是在文档中计数的字数。���������数据集中LDA模型的最大主题数量是根据困惑度得分选择15个主题。每个主题都显示使用频率最高的单词以及文档主题权重。此外,一致性评分������(Röder等人,2015年)进行计算,以选择LDA模型的最佳主题数量。相干������性测量最 近 已用于几项研究中(Asghari等人, 2020;李在文档中,有二进制值,用于标识术语“”是否在文件编号���因此,表示如下二进制值的向量:���= ���������1 ,中国2������ ,������������这是具有二进制值的向量空间模型的朴素版本,然而使用了由Salton和Buckley(1988)引入的TF-IDF加权,并且权重计算为:&Suzuki,2021;Savov等人, 2020;Wang等人, 2019年)。 度量���������中国(China))=������原木(六)通过规范化逐点评价主题的准确性互信息(NPMI)度量,其中主题的一致性是������=1������������������测定了NPMI定义如下:由方程式 (5),������(���1)是术语在文档中的出现频率������,其中,m是词汇量,m是文档总数���中国人,中国人������������������������,���������������– log(四)���������是具有词条索 引的文档数。注意,Sklearn的TF-IDF(即,TF-IDFvectorizer)比单词嵌入(Word 2 Vec)模型具有更好的性能,图5示出了主题数量的一致性得分,得分为0.3732的15个主题、得分为0.3786的32个主题和得分为0.4203的38个主题表示图的较高值。然而,可能会有重复的术语,涉及更多的主题。为了处理一词多义,其中一个词根据文本内容具有多种含义,考虑了LDA主题建模和TF-IDF矢量化算法的组合(Garg等人,2021a,2021b)。LDA基于词在主题中的分布概率和主题在文档中的分布概率来检测特定类型的主题,有效地解决了词的多义问题。此外,困惑度的计算,让LDA模型,以检测最合适的主题类别的内容,响应多词多义,提高了最佳主题术语的选择。在此基础上,采用TF-IDF向量化算法从主题类别中提取最相关的词。因此,具有TF-IDF向量化器的LDA确保了主题和其中的单词的相关性和准确性(Zhang等人,2022年)。表2显示了每个主题中最常见的单词以及图6中的单词云。LDA加上n元语法使用TF-IDF矢量化器也被提出来检查频率每个主题中最受欢迎的术语TF-IDF从具有较长内容的评论中获得的信息比嵌入方法更多。然后提取单字/词袋(BOW)、二元和三元(Robertson Willett,1998),并通过TF-IDF矢量化器单独加权。使用n-gram模型的好处是可以以有效的方式比较项的序列。该技术的结果用作提升分类器性能的特征3.2.3. 使用TF-IDF矢量化器的在先前的研究中,局部n-gram模型(Wang等人,2007)提取短语和主题,并在信息检索中显示出有意义的结果。在这项研究中,特征提取应用主题分析和n-gram的TF-IDF矢量化。这些特征用于识别与主题相关的术语并对其频率进行加权。因此,计算特定主题的向量与文档中所有向量之间的一致性该模型被应用于所提出的数据集,以确定在文档中重复的15个主题的最频繁的术语。因此,n元短语在主题中更清晰无意义的uni-gram是M. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)100172表27主题分析与十大常见术语。主题分析-LDA主题常见术语1舒适,值得,性感,软,返回,推荐,退款,作品,好,更好2便宜,廉价,浪费,精细,真棒,scratchy,松散,退款,兴奋,困难3durable,issue,worth,support,satisfied,broke,fell,skinny,thinner,attractive4魅力,问题,怪异,崇拜,爱,闻,支持,不舒服,热,足够5瘦,可爱,皱纹,工作,退款,下降,失望,黑暗,错误,打破6舒适,温暖,柔软,褶皱,磨损,推荐,清晰,stiffness,故障,差7有用的,惊人的,非凡的,令人兴奋的,颤抖的,惊讶的,优秀的,美妙的,扣,体面的8返回,正确,问题,返回,气味,退款,固体,舒适,享受,华丽9一个可定制的,优雅的,可调节的,工作的,下降的,破碎的,精致的,卡住的,可爱的,及时的10最喜欢的,厚,不舒服,安全,帮助,爱,胸围,正确的大小,公正,有益的11fake,thinner,solid,complain,hate,disappointed,worried,perfectly,gold,suspicious12正确的,令人惊讶的,奇怪的,跌倒的,破产的,兴奋的,高兴的,有趣的,愉快的,印象深刻的13气味,投诉,坚固,丢失,谢谢,厌恶,优雅,容易,丢失,安全14华丽,尖锐,问题,调整,闪耀,惊讶,准确,时尚,优雅,推荐15可怜的,美丽的,正确的,支持,下跌,爱,可怕的,奇怪的,适当的,撕裂,磨损表3每个主题以n元短语的形式列出前20个术语的示例排名LDA+ N-gram(TF-IDF)Uni-gram二元语法1舒适宽松舒适的2推荐强烈推荐3适合完全吻合4价格合理的价格5大小真实规模6昂贵看起来很贵7返回垃圾回收8皱纹容易起皱9质量可怕的质量10可爱可爱风格11误导误导图片12废物浪费钱13退款要求退款14图案差异模式15不舒服不舒服痒16软软织物17错错误描述18爱爱心口袋19问题尺寸问题20便宜便宜的材料通过应用LDA进行过滤,并且基于unigram分析过滤二元语法。表3显示了使用TF-IDF向量化器的uni-gram和bi-gram模型的前20个频繁术语的示例,这些术语对应于LDA主题。3.3. 监督机器学习分类器在这项研究中,选择了四种对不平衡数据集敏感的有效且强大的监督机器学习算法来预测时尚行业评论的有用性。分类器包括RF、SVM、LR和SGB,将在下面进行解释。这四个分类器的稳健性和效率在以前与情绪分析相关的研究中进行了测试。例如,Mehta and Mishra(2022)通过应用RF分类器、LR分类器和SGB分类器,在Covid-19相关推文中检测到假新闻。 Walid et al.(2022)使用SVM分类器、RF分类器及LR分类器了解本科生申请者未能成功的主要因素RF(Breiman,2001)合并了多个组成树分类器的分类,以产生与单个树分类器相比具有更高性能的最终分类。此外,RF是不平衡数据集(如本研究中使用的数据集)的稳健分类器。SGB(Friedman,2002)是最近研究中用于机器学习模型的最有效算法之一(Arslan等人,2016; Malik& Hussain,2018; Xu等人,2017年)。SGB通过在训练过程中提供适当范围的超参数来提高预测精度。因此,它比其他改进的算法更有效的不平衡数据集。SVM(Burges,1998)在平衡数据集上具有高精度,建立超平面决策边界,将数据集分为两类。然而,当数据集不平衡时,决策边界偏向多数类。在这项研究中,尝试调整决策边界,通过应用类加权版本的支持向量机。scikit-learn Python包为SVM提供了类权重 LR(Hosmer,2013)是最受欢迎的分类器之一,在最近的研究中已用于 几 种 数 据 处 理 应 用 ( Kim& Hong , 2021;Lu 等 人 ,2021;Montebruno等人,2020年)。LR通过二进制分类估计参数的最大似然。最重要的是,LR通过针对不平衡数据集的类加权方法来修改训练集。4. 实验环境4.1. 模型这项研究利用了四种不同的机器学习分类器和三组不同的内容特征来识别时尚领域中最常见的术语,并预测评论的有用性。以下是─选择了对不平衡数据集敏感并惩罚误分类错误的分类器:RF,SGB,SVM和LR。为了避免由于不平衡的数据集导致分类器的预测性能不佳,对一些参数进行了调整。具体而言,设置了以下参数:对于RF,树的数量设置为20,类权重是平衡的;对于SGB,学习率设置为1.0,估计器的数量设置为100.0;对于SVM,内核是RBF,惩罚系数为1.0(Zhao et al.,2021年)。此外,scikit-learn包中的RandomOverSampler函数被应用于解决不平衡数据集问题。由于以下原因,机器学习算法被特别选择而不是深度学习算法;(i)机器学习算法的训练时间比深度学习算法的训练时间快得多(Poomka等人,2021),以及(ii)对于低维数据集,例如本研究中使用的数据集,机器学习算法仍然可以产生具有高精度的结果,而深度学习算法对于有噪声和非结构化的大型和高维数据集特别有用(Janiesch et al., 2021年)。Python 3.7中scikit-learn包中的特征提取功能用于提取文本特征,例如使用TF-IDF矢量化器提取词袋和二元语法。Python 3.7中Scikit-learn包中的LatentDirichletAllocation函数用于识别M. 迈赫迪哈尼International Journal of Information Management Data Insights 3(2023)1001728++++++表4回顾有用性分类结果。分类器精度F1得分精度召回主题建模-LDA随机森林0.710.680.770.61支持向量机0.560.590.550.64Logistic回归0.620.590.640.56随机梯度增强0.650.640.660.63N-grams TF-IDF矢量化器随机森林0.740.700.800.63支持向量机0.620.630.620.64Logistic回归0.630.640.630.65随机梯度增强0.660.620.660.58LDA + N-gram TF-IDF矢量化器随机森林0.810.780.860.71支持向量机0.680.630.630.64Logistic回归0.650.640.650.64随机梯度增强0.740.650.670.62文档中最频繁的主题,然后通过应用feature-extraction.text函数生成单词矩阵X4.1.1. 数据划分和培训时间在这项研究中,训练-测试分裂,重点是数据划分过程。模型的结果是以75%的训练和25%的测试的分割比率实现的。因此,建议的分类器随机选择75%的数据集作为训练集,25%的数据集作为测试集。数据集在具有第11代英特尔(R)酷睿TMi7(1.80 GHz)处理器和32 GB可用RAM的服务器上处理。无监督机器学习算法的过程使用15个线程运行并运行10小时。4.1.2. 性能度量选择四个指标来评估模型的性能:准确率,精确率,召回率和F1得分。这些指标由四个数据衡量:(i)真阳性(TP),其指示具有正确预测的阳性类别的结果,(ii)真阴性(TN),其指示具有正确预测的阴性类别的结果,(iii)假阳性(FP),其呈现具有错误预测的阳性类别的结果,以及(iv)假阴性(FN),其呈现具有错误预测的阴性类别的结果。准确性衡量模型的性能。精确度衡量的是有用评论的实际比例与总预测类的准确性,其公式如下:图第七章F1-不同分类器中所有不同特征集的得分指标。使用LDA加上n-gram的TF-IDF向量化特征,准确率为0.81,F1分数为0.78。SGB是所有特征集的第二好模型,准确率为0.74,F1得分为0.65当使用最后一组内容特征(即,LDA加上使用TF-IDF向量化器的n-gram)。值得注意的是,通过添加每组特征,所有分类器的性能都得到了增强。具体而言,在通过TF-IDF向量化器将LDA特征与n-gram相结合后,RF的准确性和 F1分数提高了10%。另一类的准确性������������������������=������+���������������������������������������������������
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 探索数据转换实验平台在设备装置中的应用
- 使用git-log-to-tikz.py将Git日志转换为TIKZ图形
- 小栗子源码2.9.3版本发布
- 使用Tinder-Hack-Client实现Tinder API交互
- Android Studio新模板:个性化Material Design导航抽屉
- React API分页模块:数据获取与页面管理
- C语言实现顺序表的动态分配方法
- 光催化分解水产氢固溶体催化剂制备技术揭秘
- VS2013环境下tinyxml库的32位与64位编译指南
- 网易云歌词情感分析系统实现与架构
- React应用展示GitHub用户详细信息及项目分析
- LayUI2.1.6帮助文档API功能详解
- 全栈开发实现的chatgpt应用可打包小程序/H5/App
- C++实现顺序表的动态内存分配技术
- Java制作水果格斗游戏:策略与随机性的结合
- 基于若依框架的后台管理系统开发实例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功