没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2277获取更多论文映射多语言边界:英语、西班牙语和阿拉伯语António Câmara,Nina Taneja,Tamjeed Azad,Emily Allaway,RichardZemel哥伦比亚大学{ac4443,nat2142,ta2553}@columbia.edu{eallaway,zemel}@cs.columbia.edu摘要随着自然语言处理系统越来越广泛,有必要解决其实施和部署中的公平性问题,以确保其对社会的负面影响得到理解和最小化。然而,使用多语言和交叉框架或下游任务研究公平性的工作有限。在本文中,我们介绍了四个多语言公平评估语料库,设计来测量社会偏见的随机测试集我们使用这些工具来测量性别,种族,民族和跨部门的社会偏见,在英语,西班牙语和阿拉伯语的情绪回归任务我们发现,许多系统表现出统计上显著的单部门和交叉社会偏见。11介绍大 规 模 的 基 于 transformer 的 语 言 模 型 , 如BERT(Devlin et al. ,2018年),现在是自然语言处理中无数任务的最先进技术。然而,这些模型被很好地记录下来,以延续有害的社会偏见,特别是通过消除存在于其训练数据中的社会偏见,这些数据是从互联网上抓取的,没有经过仔细考虑(Bender et al. ,2021年)。虽然已经采取措施从词嵌入中“去除偏见”或消除性别和其他社会偏见(Bolukbasietal. ,2016; Manziniet al. ,2019),这些方法已被证明是美容(Gonen和Goldberg,2019)。此外,这些研究忽视了社会偏见对下游任务结果的影响本文主要使用新的统计框架和新的多语言数据集,检测和讨论应用于下游任务的多语言语言模型中的单一交叉性是Crenshaw(1990)提出的一个框架,用于研究个体的复合身份如何种族和性别)告知个人例如,那些认同多种不同社会分裂的人(例如,黑人妇女)面临的歧视和压迫的风险比具有这些身份的人(例如,白人女性)。在一些关于机器学习公平性的研究中,包括Buo-lamwini和Gebru(2018)的研究中,已经探索了这种用于理解重叠识别系统的框架,他们表明,与女性用户或有色人种用户相比,有色人种女性用户的人脸检测系统表现明显更差虽然已经开始研究自然语言处理中的交叉社会偏见,但据我们所知,还没有研究在下游任务(例如情感分析)的交叉框架下游任务中的社会偏见使具有多个不利敏感属性的用户暴露于未知但潜在有害的结果,特别是当在下游任务上训练的模型用于现实世界的决策时,例如用 于 筛 选 简 历 或 预 测 刑 事 诉 讼 中 的 累 犯( Bolukbasi et al. , 2016; Angwin et al. ,1999)。在这项工作中,我们选择情绪回归作为下游任务,因为社会偏见通常通过情绪识别来实现(Elfenbein和Am-bady,2002),并且机器学习模型已被证明可以反映情绪识别任务中 的 性 别 偏 见 ( Domnich 和 Anbarjafari ,2021)。为1我们使我们代码和数据集可用于https://github.com/ascamara/2在本文中,我们指的是对单一社交媒体的偏见多交叉性。如种族偏见或性别偏见,如单切面。arXiv:2204.03558v1 [cs.CL] 2022年4+v:mala2277获取更多论文例如,公司可以使用情感分析和情感回归来测量不同社交群体的产品参与度。此外,虽然一些工作已经研究了不同语言的性别偏见(Zhou et al. ,2019; Zhao et al. ,2020年),没有工作,我们的知识已经研究了种族,民族和跨不同语言的交叉社会偏见。这种缺乏多语言分析的情况忽视了非英语用户及其复杂的社会环境。在本文中,我们证明了性别,种族,民族和交叉社会偏见的存在,对英语,西班牙语和阿拉伯语的情感回归任务训练的五个语言模型我们通过引入旨在测量社会偏见的新的补充测试集和一个新的统计框架来检测在情感分析任务上训练的模型中是否存在单节和交叉社会偏见。我们的贡献总结如下:• 继 Kiritchenko 和 Mohammad ( 2018 ) 之后,我们引入了四个补充测试集,旨在检测在英语,西班牙语和阿拉伯语的情感分析任务上训练的语言系统中的社会偏见,我们提供下载。• 我们提出了一种新的统计框架,以检测在情感分析任务上训练的语言模型中的单节和交叉社会偏见• 我们检测和分析了大量的性别,种族,民族和交叉社会偏见存在于五个语言模型训练的情绪回归任务在英语,西班牙语和阿拉伯语。2相关作品机器学习和自然语言处理系统中有害的社会偏见的存在和影响是普遍的,并且在流行的词嵌入方法中有充分的记录(Caliskan et al. ,2017;Garg et al. ,2018; Bolukbasi et al. ,2016; Zhaoet al. ,2019年),这是由于大量的人类产生的训练数据,其中包括历史社会偏见。值得注意的是,Caliskan et al. (2017年)通过引入词语联想测试(WEAT)来证明这种偏见,该测试测量了相似的社会敏感词语集(例如,种族或性别名称)是词的属性集合(例如,愉快或不愉快的词)在由词嵌入编码的语义空间而Bolukbasi et al. ( 2016 ) ;Manzini et al.(2019)介绍了“去偏见”词嵌入的方法,以便为下游任务中的使用创建更公平的语义表示,Gonen和Goldberg(2019)认为,这些方法只是装饰性的,因为在应用这些方法后,语义空间中的社会偏见仍然很此外,这些“去偏见”技术关注特定的社会分裂,如性别或种族(即,单节分裂)。相比之下,我们的工作同时考虑了单一和交叉的社会偏见。最近的研究也开始关注基于transformer的语言模型中的社会偏见(Ku-rita et al. ,2019;Bender et al. ,2021年)。特别是,Bender等人(2021)讨论了越来越大的基于transformer的语言模型如何在实践中验证其训练数据,导致此类模型延续社会偏见并伤害用户。因此,在这项工作中,我们考虑静态词嵌入技术和基于Transformer的语言模型。Crenshaw(1990)将交叉性作为一个分析框架,研究了在种族和性别等一系列社会分裂中具有各种身份的个人所面临的特权和边缘化的复杂特征交叉性的规范用法是为了研究黑人妇女同时面临的种族和性别歧视,这不能完全独立地使用种族或性别框架来理解;例如,我们指出了愤怒的黑人妇女刻板印象(Collins,2004)。因此,我们认为,现有的公平性研究是 有 限 的 , 在 他 们 的 能 力 , 发 现 偏 见 和“debias”语言模型,交叉社会偏见已被记录在自然语言处理模型中。Herbelot et al.(2012)首先通过在维基百科数据集上使用分布语义来研究交叉社会偏见,而Tan和Celis(2019)通过使用WEAT语言来研究语境化词嵌入中的交叉社会偏见,指的是白人男性和黑人女性。Guo和Caliskan(2021)介绍了检测静态词嵌入中已知和新出现的交叉社会偏见的测试同样,May等人。(2019)还将WEAT扩展到使用句子的上下文化单词嵌入框架+v:mala2277获取更多论文嵌入然而,这些方法没有考虑交叉社会偏见对下游任务结果的影响,这是这项工作的重点。自然语言处理中非英语社会偏见的研究是有限的,与周等。 (2019)扩展WEAT研究西班牙语和法语的性别偏见和赵等人。 (2020)在快速文本嵌入上检查英语,西班牙语,德语和法语中的性别偏见(Bojanowski et al. ,2017年)。值得注意的是,据我们所知,在自然语言处理中,除了英语之外,还没有研究跨部门社会偏见的工作Herbelot等人(2012年)和Guo and Caliskan(2021年)分别使用自然语言处理研究了亚洲和墨西哥女性面临的跨部门社会偏见,两者都是用英语进行的。相比之下,我们的工作旨在了解个人和他们帮助构成的社区所使用的语言中的交叉社会偏见。与我们的工作最密切相关的是,Kiritchenko和Mohammad(2018)在219个情绪分析系统中评估了种族和性别偏见,这些系统是在SemEval-2018 任 务 1 : 推 文 中 的 影 响(Mohammad et al. ,2018)。他们的工作引入了公平评估核心(EEC),这是一个包含8,640个英语句子的补充测试集,旨在提取情感分析系统中的性别和种族偏见。尽管有西班牙 语 和 阿 拉 伯 语 的 数 据 和 提 交 的 任 务 ,Kiritchenko和Mohammad(2018)没有探索这两种语言的偏见。此外,本研究的重点是提交给竞争。相比之下,我们的工作重点是大规模的基于transformer的语言模型,并探讨了多种语言中的单一和交叉社会偏见。3方法:评价交叉性在本节中,我们将介绍我们的框架,用于检测下游任务结果的单部门和交叉社会给定一个经过情绪回归训练的模型,我们使用我们的框架在补充测试集上评估模型来测量社会偏见。首先,我们讨论由与社会分裂相对应的句子组成的补充测试集(例如,黑人妇女,黑人男子,白人妇女和白人男子)(§3.1)。然后我们使用每个测试集的结果运行Beta回归模型(Ferrari和Cribari-Neto,2004),其中我们拟合了性别,种族和交叉社会偏见的系数(§3.2)。最后,我们检验了这些系数的统计显著性,以确定在给定语言的给定情感回归任务上训练的模型是否表现出性别、种族或交叉社会偏见(第3.3节)。3.1平等评价机构在Kiritchenko和Mohammad(2018)的工作之后,我们介绍了四种新的股权评估Cor- pora(EEC)。EEC是一组精心设计的简单句子,它们的不同之处仅在于它们涉及不同的社会分裂,如表1所示。因此,句子之间对下游任务的预测差异我们使用这些语料库作为补充测试集,以测量在英语,西班牙语和阿拉伯语的下游任务上训练的模型的单节和交叉社会偏见。根据Kiritchenko和Mohammad(2018),每个EEC由11个模板句子组成,如表1所示。每个模板包括一个[person]标签,该标签使用代表性别-种族/民族分裂的名字(例如,在原始EEC中,黑人女性,黑人男性,白人女性和白人男性的名字)和代表性别分裂的名词短语(例如,她/她,他/他,我的母亲,我的兄弟)。前七个模板还包括一个情绪词,前四个是[情绪状态词]标签,用愤怒这样的词实例化,最后三个是[情绪情况词]标签,用烦人这样的词实例化。我们贡献了新颖的英语,西班牙语和阿拉伯语的EEC,使用相同的句子模板,名词短语和情感词,但分别用黑人和白人的名字代替拉丁裔和盎格鲁人的名字,以及阿拉伯人和盎格鲁人的名字。我们介绍了一个英语欧共体和西班牙语欧共体拉丁裔和盎格鲁人的名字,以及英语欧共体和阿拉伯语欧共体阿拉伯语和盎格鲁人的名字,共四个新的欧共体。名词完整翻译句子模板3Caliskan等人。 (2017); Kiritchenko和Mohammad(2018)将种族群体称为非洲裔美国人和欧洲裔美国人。为了保持一致性,并根据美联社和纽约时报的风格指南+v:mala2277获取更多论文模板例如EEC1[人物]感受[情绪状态词]。亚当生气了。这种情况让拉托亚感到兴奋。我让豪尔赫感到愤怒。莎拉让我感到沮丧。安娜遇到了一个令人惊讶的情况。雅各布没有告诉我所有关于荒谬的事情。与穆罕默德的对话很有趣。我在市场看到贝琪了。?A "?,nnnLn>,?AI“Az>r”(tahadathtmaejas-tayn£(伊斯兰教)tl,Ln> nP,anr,znt@n I <$@I,?z,"a“?btP,(fatimahtadhhab‘ilaa almadrasah fi我丈夫有两个孩子。en(黑白)2这种情况使[人]感到[情绪化]状态词]。en(黑白)3我让[人]感觉[情绪状态字]。中文(简体)4[人]使我感到[情绪状态字]。中文(简体)5[人]发现他/她自己在a/an【情感情境词】情境。es(英语-拉丁语)6[人物]告诉美国所有关于近期[情感情境词]事件。es(英语-拉丁语)7与人的对话是[情绪化的情况],字)。en(英语-阿拉伯语)8我在市场上看到了(人)en(英语-阿拉伯语)9我昨天和[某人]谈过了。ar(英语-阿拉伯语)10[人]去我们附近的学校。ar(英语-阿拉伯语)11[1]有两个孩子。en(all en EEC)表1:欧共体中使用的句子模板及示例。[括号]表示模板插槽,EEC表示示例来自哪个语料库,包括语言。短语、情感词和名字都可以在附录中找到,我们也提供了所有四个新的EEC供下载。最初的EEC使用十个名字为每个性别种族分裂,从Caliskan等人使用的名字列表中选择。(2017),这反过来又使用了第一个内隐联想测试(IAT)的名称,这是一项测量内隐种族偏见的心理学研究(Greenwald et al. ,1998年)。例如,名字包括黑人妇女的Ebony,黑人男子的Alonzo,白人妇女的Amanda和白人男子的Adam原始的EEC还使用了五个情绪状态词和五个情绪情况词,这些词来自于Roget例如,愤怒时的愤怒和烦躁,喜悦时的狂喜和惊奇,恐惧时的焦虑和恐怖,悲伤时的吝啬和阴郁每个句子模板都用选定的例子实例化,以生成8640个句子。对于在英语和西班牙语的EEC中代表拉丁裔女性、拉丁裔男性、盎格鲁女性和盎格鲁男性的名字,我们使用了根据社会保障管理局的数据,20世纪90年代在美国出生的婴儿最受欢迎的10个名字。对于英语和阿拉伯语的EEC,从Caliskan等人(2017)中选择了10个名字对于阿拉伯男性的名字,从一项采用内部联想测验的研究中选出了10个名字,研究对阿拉伯穆斯林的态度(Park et al. ,2007)。由于无法使用该来源获得阿拉伯女性的名字,我们使用阿拉伯语网站BabyCenter5为阿拉伯世界出生的女婴命名的前十名。所有姓名见附录。对于西班牙语和阿拉伯语的EEC,母语流利的志愿者翻译了原始的句子模板,名词短语和情感词。然后,他们验证了生成的句子(即,使用选定的名称和情感词)以获得适当的语法和语义。请注意,对于阿拉伯语EEC,作者使用英语和阿拉伯语维基百科页面的个人姓名音译。由于翻译的情感词较少(例如,两个不同的英语情感词对应于目标语言中的同一个词),每个句子模板用所选择的例子来说明,以生成用于两种新颖的EEC的8640个英语句子,8460个西班牙语句子,以及8040个阿拉伯语句子。3.2交叉变量回归我们开发了一个新的框架,用于识别统计上显著的单一和交叉的社会偏见,使用Beta回归建模比例(Ferrari和Cribari-Neto,2004)。在Beta回归中,响应变量被建模为来自Beta分布的随机变量(即,在(0,1)中支持的分布族)。这与线性回归相反,线性回归模型4https://www.ssa.gov/oact/babynames/decades/names1990s.html5https://arabia.babycenter.com/+v:mala2277获取更多论文∈响应变量R.设Yi为响应变量。也就是说,Yi是由针对情绪回归任务训练的模型对来自EEC的给定句子i预测的分数情绪回归的标签限制了Yi[0,1],尽管0和1在实践中不会出现,因此我们可以使用Beta回归来测量偏差。Beta回归(Eq.1)测量我们的响应变量Yi和我们的自变量Xji之间的相互作用(即,由来自EEC的句子i表示的社会分裂jYi=β0+β1X1i+β2X2i+β3X1iX2i(1)在我们的模型中,我们将X1定义为代表少数群体的句子的指示函数(例如,黑人、妇女)。例如,X1i=1,对于任何引用黑人的句子i。因此,相应的系数β1描述了在其他条件相同的情况下,模型预测中涉及认同该少数群体的个体的句子的变化。例如,β1提供了模型中种族偏见的度量对于第二个少数群体,我们用类似的方法定义X2因此,变量X1X2=1,当且仅当一个句子引用交叉识别(例如,因此,β3是衡量交叉社会偏见的指标。3.3统计检验在拟合回归模型后,我们检验每个回归系数的统计显著性。也就是说,我们将系数除以标准误差,然后计算双侧t检验的p值。如果自变量的系数(例如,X1)具有统计学显著性,我们说该模型显示出对该变量对应的种族和民族,性别或交叉性身份的统计学显著社会一个变量的正系数意味着代表该变量编码的少数群体的句子更强烈地表现出情感。4实验4.1模型在这项工作中,我们尝试了五种方法我们的前三种方法使用Huggingface(Wolfet al. ,2019年):BERT+-等人,2018),西班牙BETO(Cañete et al. ,2020)和阿拉伯语的ArabicBERT(Safaya etal. , 2020 ) , mBERT- 多 语 言 BERT- 基 础( Devlin et al. , 2018 ) , XLM-RoBERTA-XLM-RoBERTA-碱(Conneau et al. ,2019)。对于每个语言模型,我们在PyTorch中实现的模型的最后一层的[CLS](或等效)令牌嵌入上拟合一个双层前馈神经网络(Paszke et al.我们不对这些模型进行微调,因为我们有兴趣测量预先训练的公开模型中专门编码的偏差此外,由于我们使用的训练数据集很小,因此微调具有导致过度拟合的高风险。此外,我们还使用Scikit-learn(Pedregosa etal. ,2011):SVM-tfidf-一种在Tf-idf句子表示和fastText-fastText预训练的多语言单词嵌入上训练的SVM(Bojanowskietal. ,2017)平均汇集在句子上,然后传递到MLP回归器。4.2任务我们首先在SemEval-2018任务1:Tweets中的情感 ( Sem 2018- T1 ) ( Mohammad et al. ,2018)。情绪强度回归被定义为推文作者表达的给定情绪的强度,并在[0,1]范围内取值。我们考虑以下几种情绪:愤怒、恐惧、喜悦和悲伤.对于每种模型和语言组合,我们使用官方竞争指标,皮尔逊相关系数(ρ)报告性能,如(Benesty et al. ,2009),对于情绪回归任务中的每种情绪。5结果和讨论5.1情绪强度回归我们首先展示Sem 2018-T1任务的结果,以验证我们分析的社会偏见模型的质量(见表2)。我们观察到,预训练语言模型的性能因语言和情感而异与西班牙语和阿拉伯语相比,BERT+、mBERT和RoBERTa在英语任务中表现最好此外,BERT+在所有语言和任务中的性能都优于多语言模型(例如mBERT和XLM-RoBERTA),这表明特定语言模型(例如,+v:mala2277获取更多论文语言模型愤怒ρ恐惧测试喜悦悲伤BERT+0.5920.5610.5960.559mBERT0.3690.4760.5070.397英语XLM-ROBERTA0.4120.3880.4320.489fastText0.5350.4670.4950.452SVM0.5330.5230.5380.504BERT+0.3910.4600.5550.459mBERT0.2790.1920.5100.367西班牙XLM-ROBERTA0.1360.3580.3290.145fastText0.4010.4780.5600.563SVM-TFIDF0.3980.6380.5510.598BERT+0.4350.3620.4700.543mBERT0.2230.1110.2960.384阿拉伯语XLM-ROBERTA0.2110.2540.2120.139fastText0.4010.4780.5600.563SVM-TFIDF0.3660.3810.4750.456表2:在SemEval 2018任务1,情感回归上训练的模型的Pearson相关系数(ρ)BETO)可以优于多语言模型。SVM-tfidf和fastText通常优于多语言模型,但与特定语言模型相当或仅这种差异可能是由于缺乏对基于变压器的模型进行微调。我们决定不进行微调确实会降低下游任务的性能,但考虑到在小训练集上过度拟合的风险以及我们对研究现成的预训练语言模型中编码的社会偏见的兴趣,这5.2使用EEC进行在训练了一个语言中给定情感回归任务的模型后,我们利用五个EEC作为补充测试集。然后,我们将Beta回归应用于每个EEC的预测集,以揭示情绪回归的变化,给出一个分别被识别为少数民族或种族,女性和女性少数民族或种族的例子。我们在表3、4和5中展示了回归中每个变量的β系数及其统计显著性水平。5.3讨论在本节中,我们讨论了我们在情绪回归任务上训练并使用EEC和新的统计框架进行评估的五个模型中检测到和未检测到的单一和交叉社会偏见。最普遍的统计显着的社会偏见是性别偏见,其次是种族和民族偏见,最后是跨部门的社会偏见。由于我们的统计程序,有可能交叉身份所经历的一些偏见被性别和性别所吸收种族或族裔系数,限制了可以衡量跨部门社会偏见的程度。我们主要关注我们的统计数据。交叉社会偏见分析。 一部正典-交叉社会偏见的一个典型例子是愤怒的黑人女性刻板印象(柯林斯,2004)。我们发现相反的情况:在所有三个基于transformer的语言模型中,涉及黑人女性的句子被推断为不那么愤怒,而在BERT+中被推断为更快乐,达到了统计学上的显著程度(表3)。这是可能的,这种偏见是captured由其他系数。例如,在mBERT和XLM-RoBERTA中,涉及女性的句子被推断为更愤怒,而在mBERT中,涉及黑人的句子被推断为更愤怒。也有可能语言模型没有表现出这种刻板印象,这支持了心理学的实验结果(Walley-Jean,2009),尽管在批判理论文献 中得到了很好的 确立(Collins,2004)。我们注意到,在英语和西班牙语中,涉及拉丁裔的句子在基于transformer的语言模型中显示出更多的快乐(表4);然而,对于给定的情感,其他交叉身份在模型中没有看到我们在实验中发现了种族偏见的证据。我们发 现 统 计 学 上 的 显 著 证 据 表 明 , 基 于transformer的语言模型预测,涉及黑人的句子比涉及白人的句子更少恐惧,悲伤和快乐(表3)。这表明,这些语言模型可以预测在任何情况下涉及黑人的句子的情感强度较低,更强调白人情感和白人体验。我们观察到,种族偏见有时会因语言而分裂。例如,英语模型预测提到阿拉伯人的句子更可怕,而阿拉伯语模型预测相同的句子不那么可怕(表5)。然而,两种语言都预测这些句子更悲伤。未来的工作应该考虑跨语言的种族偏见之间的相互作用,因为同样的社会偏见在不同的语言中可能会有不同的表达和衡量我们在情感和语言上观察到多种性别偏见。在所有的阿拉伯语模型中,涉及女性的句子被预测比涉及男性的句子更少愤怒(表5)。此外,英语和西班牙语的模型,+v:mala2277获取更多论文语言模型愤怒系数人种/种族性别路口恐惧系数人种/种族性别路口英语(黑白)BERT+mBERTXLM-ROBERTASVM-tfidffastText0。008-0。021∗∗∗0。014年10月 0日。018∗∗∗-0。001年10月 0日。003∗∗∗0。0010.0020。0- 0。002-0。028∗∗∗-0。015∗∗∗-0。004∗∗∗-0。001-0。0-0。023∗∗∗-0。015∗∗∗-0。003∗∗∗-0。001-0。00。026∗∗∗0。037∗∗∗0。003∗∗∗-0。00。001-0。001-0。017∗∗0。0020。0020。0语言模型喜悦系数人种/种族性别路口悲伤系数人种/种族性别路口英语(黑白)BERT+mBERTXLM-ROBERTASVM-tfidffastText-0。052年,他的成绩是-0。0050。0030. 009∗-0。017年10月0日。0020。0020. 00。00。0010。028∗∗∗0。0020。001-0。001-0。0-0。017∗∗-0。025∗∗∗-0。009∗∗∗0。002-0。00。017∗∗0。042∗∗∗0。0020。0020。00。007-0。024∗∗∗-0。001-0。002-0。0表3:所有模型、情绪组合的英语(黑白)EEC推断的贝塔系数统计学显著性结果(p ≤ 0. 01)标记有三个问号 *,(p ≤ 0. 05)标有两个箭头**,(p ≤ 0. 10)标有一个星号 *语言模型愤怒系数人种/种族性别 路口恐惧系数人种/种族性别路口英语(英语-拉丁语)BERT+mBERTXLM-ROBERTASVM-tfidffastText0。005-0。014∗∗∗0。014∗∗∗-0。014∗∗∗-0。00。002∗∗∗-0。0030. 001-0。0- 0。0010。002-0。005-0。002∗∗0。003-0。00。01-0。034∗∗∗0。0-0。0030。0-0。02∗∗∗0。013∗∗∗0。002∗∗0。0030。0010。015∗0。0070。00。003-0。0西班牙BERT+mBERTXLM-ROBERTASVM-tfidffastText-0。011-00060。03 -00. 005∗0。003∗∗∗-0。002∗∗∗-0。0040. 031∗∗∗0。00。053∗∗∗0。02∗0。006∗-0。002∗∗∗0。0040。0-0。017∗0。026∗∗∗0。002∗∗∗-0。002-0。0-0。0090。013∗∗∗-0。0-0。006-0。0070。042∗∗∗-0。005∗-0。001∗∗0。0020。0语言模型喜悦系数人种/种族性别路口悲伤系数人种/种族性别路口英语(英语-拉丁语)BERT+mBERTXLM-ROBERTASVM-tfidffastText0。001-0。025∗∗∗0。0050. 02∗∗∗0。002年2月 0日。006∗∗∗-0。0- 0。0-0。00。0010。016∗∗0。017∗∗0。00。00。0-0。005-0。0060。001-0。0020。0-0。013∗∗0。009∗-0。002∗∗0。0-0。00。028∗∗∗0。0110。0010。002-0。0西班牙BERT+mBERTXLM-ROBERTASVM-tfidffastText0。0120. 015∗-0。021 - 021-021 - 021 008∗∗-0。00。002∗∗0。0020. 015∗∗∗-0。0- 0。004-0。0060。025∗∗∗-0。001-0。001-0。00。0040。016∗∗∗-0。0-0。0060。00。019∗∗0。0020。00。006-0。0020。004-0。008-0。00。006-0。0表4:英语和西班牙语(盎格鲁-拉丁裔)EEC推断的贝塔系数,所有模型,情感组合。统计学显著性结果(p≤0. 01)标记有三个问号 *,(p≤0. 05)标记有两个问号 **,(p≤ 0. 10)标有一个星号 *在涉及妇女的判决中,妇女比男子更害怕(表3、表4)。我们在语言、情感和模型中看到了无数相互矛盾的结果。这表明语言模型编码的社会偏见非常复杂,很难使用简单的统计框架进行研究我们认识到,对社会偏见和刻板印象的研究是非常微妙的,特别是在自然语言处理的公平性方面。未来对这些语言模型、它们的训练数据以及任何下游任务数据的分析对于检测和理解自然语言处理中社会偏见的影响是必要的例如,未来的工作可能会引入额外的统计测试,+v:mala2277获取更多论文在与交叉性文献的对话中更好地捕捉社会偏见的复杂本质的EEC6伦理考虑和限制由于现有的培训数据,我们的工作范围仅限于英语、西班牙语和阿拉伯语此外,我们的统计框架将严格定义的性别-种族分裂中的交叉社会偏见例如,我们的模型忽略了非二元或双性用户,多种族用户和跨性别边缘化的用户+v:mala2277获取更多论文语言模型愤怒系数人种/种族性别路口恐惧系数人种/种族性别路口英语(英阿)BERT+mBERTXLM-ROBERTASVM-tfidffastText0。061 -061 -061 -061 004-0。001-0。012∗∗∗-0。002∗∗-0。003∗∗∗0。0010.001-0。0- 0。003-0。026∗∗∗0。022∗∗∗0。003∗∗∗-0。001-0。00。037∗∗∗0。028∗∗∗-0。00。002-0。00。0040。029∗∗∗-0。00。00。0-0。006-0。041∗∗∗0。001-0。0-0。0阿拉伯语BERT+mBERTXLM-ROBERTASVM-tfidffastText-0。026-026 - 02601∗∗0。004-0。008∗∗∗-0。001∗-0。004∗∗∗0。003-0。029∗∗∗-0。03-00. 012∗∗0。0070。012∗∗∗0。001∗0。010。019∗∗-0。016∗∗∗0。002-0。002∗∗0。002-0。018∗-0。0040。009∗∗∗0。001-0。021∗∗∗-0。031∗∗∗0。018∗∗∗-0。006∗0。00。0080。013语言模型喜悦系数人种/种族性别路口悲伤系数人种/种族性别路口英语(英阿)BERT+mBERTXLM-ROBERTASVM-tfidffastText0。047 -047 -047004-0。029年的今天023∗∗∗-0。0010. 0010。0- 0。002-0。00。001-0。019∗∗∗0。016∗∗-0。00。002-0。00。064∗∗∗0。0-0。0010。004-0。0-0。0050。033∗∗∗-0。002∗∗0。0040。0-0。007-0。024∗∗0。003∗∗∗-0。004-0。0阿拉伯语BERT+mBERTXLM-ROBERTASVM-tfidffastText-0。0060. 016∗∗-0。0010. 015∗∗∗-0。0- 0。005∗∗0。006-0。052∗∗∗0。018∗∗-0。028∗∗∗0。0030。0020。0050。023∗∗0。0180。034∗∗∗0。027∗∗∗-0。0-0。002-0。0050。0010。007∗0。003∗-0。031∗∗∗-0。036∗∗∗-0。007-0。016∗∗∗-0。0030。0010。031∗∗∗表5:针对所有模型、情绪组合的英语和阿拉伯语(盎格鲁-阿拉伯)EEC推断的贝塔系数统计学显著性结果(p≤0. 01)标记有三个问号 *,(p≤0. 05)标记有两个问号 **,(p≤0. 10)标有一个星号 *本文未研究的年龄段(即残疾用户)。未来的工作可以通过创建代表这些身份的整体的EEC和使用回归模型来解决这些缺点,该回归模型使用非二进制变量来代表非二进制身份,或者包括用于附加身份的附加此外,我们的统计模型其他少数群体通过预测模型的结果的变化作为一个功能的积极边缘化的身份在一个例句。换句话说,我们的模型将霸权身份的经验作为中心,并将这种经验作为基线。更广泛地说,重要的是要认识到,交叉性不仅仅是特权和歧视的叠加或叠加理论。相反,一个人的各种身份和他们所面临的压迫之间存在着复杂的相互依赖关系最后,我们要强调的是,没有一套精心策划的句子可以检测到社会偏见的程度和复杂性因此,我们警告说,没有任何工作,特别是自动化工作,足以理解或减轻机器学习和自然语言处理模型中的社会偏见的全部范围。对于交叉的社会偏见来说尤其如此,在这种情况下,边缘化和歧视发生在性别、性、种族、民族、宗教和其他分裂之内和之间。7结论在本文中,我们介绍了四个公平评估语料库,以衡量种族,民族和性别偏见的英语,西班牙语和阿拉伯语。我们还提供了一个新的统计框架,研究- ING在情感分析系统的unisectional和交叉的社会偏见。我们将我们的方法应用于英语,西班牙语和阿拉伯语的情绪回归任务训练的五个模型,揭示了统计学上显著的单一和交叉社会偏见。尽管我们有这些发现,但我们在分析研究结果时,仍受到社会政治和历史背景的限制,而这些背景是理解其真正原因和影响所必需的。在未来的工作中,我们有兴趣与社区成员和来自我们研究的群体的学者合作,更好地解释这些社会偏见的原因和含义,以便自然语言处理社区可以创建更公平的系统。确认我们非常感谢Max Helman的宝贵意见和对话 。 Alejandra Quintana Arocho 、 CatherineRose Chrin 、 Maria Chrin 、 Rafael Diloné 、Peter Gado 、 Astrid Liden 、 Bettina Oberto 、Hasanian Rahi、Russel Rahi、Raya Tarawneh和两名匿名志愿者提供了出色的翻译工作。这项+v:mala2277获取更多论文工作得到了部分支持+v:mala2277获取更多论文/由美国国家科学基金会研究生研究奖学金资助。DGE-1644869。本材料中表达的任何观点、发现、结论或建议均为作者的观点,不一定反映国家科学基金会的观点。引用朱莉娅·安格温,杰夫·拉森,苏里亚·马图,劳伦·基什内尔。1999. 机器偏见:全国各地都在使用软件来预测未来的罪犯。 而且对黑人有偏见艾 米 丽 ·M Bender , Timnit Gebru , AngelinaMcMillan- Major , and Shmargaret Shmittern.2021. 关于随机鹦鹉的危险:语言模型可以太大吗? 在2021年ACM公平、问责制和透明度会议记录中,FAccT '21,第610-623页,美国纽约州纽约市。计算机协会.Jacob Benesty,Jingdong Chen,Yiteng Huang,andIs-rael Cohen. 2009. Pearson相关系数在语音处理中的降噪,第1-4页。斯普林格。PiotrBojanowski , EdouardGrave , ArmandJoulin,and Tomas Mikolov. 2017.用子词信息丰富词向量。计算语言学协会汇刊,5:135Tolga Bolukbasi,Kai-Wei Chang,James Y Zou,Venkatesh Saligrama,and Adam T Kalai. 2016.男人之于电脑程序员就像女人之于家庭主妇?去偏置字嵌入。神经信息处理系统的进展,29。丽莎·鲍雷 格 2008. When black+ lesbian+ woman=black lesbian woman : The methodological chal-challengesofqualitativeandquantitativeintersection- ity research. Sex roles,59(5):312Joy Buolamwini和Timnit Gebru。2018.性别阴影:商业性别分类中的交叉准确性差异。见关于公平、问责制和透明度的,第77PMLR。AylinCaliskan , JoannaJBryson 和 ArvindNarayanan。2017.从语料库中自动生成的语义包含类人的偏向。Science,356(6334):183José Cañete,Gabriel Chaperon,Rodrigo Fuentes,Jou- Hui Ho,Hojin Kang,and Jorge Pérez. 2020.Span-ish预训练的bert模型和评估数据。在ICLR2020中。帕特里夏·希尔·柯林斯2004. 黑人性政治:非裔美国人,性别和新种族主义。劳特利奇。Alexis Conneau 、 Kartikay Khandelwal 、 NamanGoyal、VishravChaudhary、GuillaumeWenzek 、 Francisco Guzmán 、 Edouard Grave 、MyleOtt 、 LukeZettle-moyer 和 Ves
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功