没有合适的资源?快使用搜索试试~ 我知道了~
意义嵌入中的社会偏见:多义词义项学习与社会偏见评估
+v:mala2277获取更多论文意义嵌入也是有偏见的Yi Zhou1Masahiro Kaneko2Danushka Bollegala1,3利物浦大学1名,东京工业大学2名,亚马逊大学3名{y.zhou71,danushka}@liverpool.ac.ukmasahiro. nlp.c.titech.ac.jp摘要义项嵌入学习方法针对歧义词的不同义项学习不同的嵌入。一个歧义词的一个意义可能是社会偏见,而它的其他意义保持公正。与大量评估预训练词嵌入中的社会偏见的先前工作相比,意义嵌入中的偏见相对而言研究不足。我们创建了一个基准数据集,用于评估意义嵌入中的社会偏见,并提出了新的意义特定的我们进行了广泛的评估多个静态和语境化的意义嵌入的各种类型的社会偏见使用建议的措施。我们的实验结果表明,即使在没有发现偏见的情况下,在词汇层面上,仍然存在令人担忧的社会偏见的水平,这往往是被忽视的词汇层面的偏见评估措施。11介绍义项嵌入学习方法使用不同的向量来表示歧义词的不同义项(Reisinger和Mooney,2010;Nee-lakantan et al. ,2014;Loureiro and Jorge,2019).尽管许多先前的作品已经研究了静态和语境化单词嵌入中的社会偏见,但意义嵌入中的社会偏见仍然没有得到深入研究(Kaneko和Bollegala,2019年,2021年a,a; Ravfogel等人,2019年,2021年a)。,2020; Dev等人,2020; Schick et al. , 2021; Wang et al. ,2020)。我们遵循Shah et al.(2020)的定义,将社会偏见定义为对NLP系统所做的受保护属性的预测偏见。即使一个词的嵌入是无偏见的,它的一些含义仍然可能与不公平的社会偏见有关。Danushka Bollegala同时担任利物浦大学教授和亚马逊学者。本文介绍了在大学进行的工作-利物浦市,与亚马逊无关1数据集和评估脚本可在github.com/LivNLP/bias-sense网站。黑色连衣裙很优雅。色觉黑人很友好。黑人不友好。种族意识图1:来自Sense-Sensitive Social Bias数据集的例句,用于模糊词black的两种含义。上面的两句对应于黑色的颜色感,而下面的两句对应于它的种族感。将感觉与不愉快属性相关联的刻板示例以红色示出,而将感觉与愉快属性相关联的反刻板示例以蓝色示出例如,考虑模糊的单词black,根据WordNet(Fellbaum和Miller,1998),其具有两个形容词意义:(1)黑色作为颜色(具有最大黑暗的无色颜色,sense-key=black%3 :00 :01)和(2)作为一个种族的黑人(属于或属于一个种族群体,尤其是起源于撒哈拉以南非洲地区的黑人,意为black%3:00:02)然而,只有第二种意义上的黑色往往与种族偏见。原因在于:(1)缺乏对意义嵌入中社会偏见的评估基准,(b) 由于不清楚如何扩展为静态和语境化嵌入提出的偏差评估方法以评估意义嵌入中的社会偏差,现有的社会偏差评估数据集和度量不考虑单词的多种意义,因此不适合于评估意义嵌入中的偏差。为了解决这一差距,我们评估社会偏见的国家的最先进的(SoTA)静态意义嵌入arXiv:2203.07523v1 [cs.CL] 2022年+v:mala2277获取更多论文如LMMS(Loureiro和Jorge,2019)和ARES(Scarlini et al. ,2020),以及从Sense-BERT获得的上下文化的意义嵌入(Levine et al. ,2020)。据我们所知,我们是第一个对意义嵌入中的社会偏见进行系统评估的人具体而言,我们在本文中做出了两个主要贡献:• 首先,为了评估静态意义嵌入中的社会偏见,我们扩展了先前提出的用于评估静态(意义不敏感)单词嵌入中的社会偏见的基准,通过考虑这些数据集中表达的单词的社会偏见类型手动为单词分配意义ID(§3)。• 其次,为了评估意义敏感的上下文嵌入中的社会偏见,我们创建了意义敏感的社会偏见(SSSB)数据集,这是一种基于模板的新型数据集,其中包含考虑其刻板社会偏见的歧义词的多个含义注释的句子(§5)。SSSB数据集的一个示例如图1所示。我们的实验表明,与单词嵌入类似,静态和语境化的意义嵌入也编码了令人担忧的社会偏见水平使用SSSB,我们表明,提出的偏见评估措施的意义嵌入捕获不同类型的社会偏见编码在现有的SoTA意义嵌入。更重要的是,我们看到,即使社会偏见不能在词的水平上观察到,这种偏见仍然是突出的意义上的水平,提出了对现有的评估,只考虑词的水平的社会偏见的关注2相关工作我们在这篇论文中的重点是评估英语中的社会偏见,而不是去偏见的方法。我们推迟了对英语以外的语言的分析,并将开发意义嵌入的去偏置方法推迟因此,我们在这里仅限于讨论偏倚评估方法。静 态 嵌 入 中 的 偏 见 : 单 词 嵌 入 关 联 测 试(WEAT; Caliskan et al. ,2017)评估两组目标概念(例如,男性与女性)和两组属性(例如,令人愉快的(爱,欢呼等)vs. 不愉快的(丑陋的,邪恶的等)).在这里,协会是使 用 词 嵌 入 之 间 的 余 弦 相 似 度 来 测 量 。Ethayarajh等人 (2019)表明,WEAT系统地高估了社会偏见,并提出了关系内积关联(RIPA),一种子空间投影方法,以克服这个问题。词汇联想测试(WAT; Du et al. ,2019)计算关联图中每个单词的性别信息向量(Deyneet al. ,2019)通过传播与男性和女性词汇相关的信息。此外,单词类比用于评估静态嵌入 中 的 性 别 偏 见 ( Bolukbasi et al. , 2016;Manzini et al. ,2019; Zhao et al. ,2018)。Loureiro和Jorge(2019)展示了静态感觉植入中性别偏见的具体例子然而,这些数据集不考虑词义,因此不适合评估意义嵌入中的社会偏见。情境化嵌入的偏见:May et al. (2019)通过使用模板创建人工句子并使用句子嵌入之间的余弦相似度作为关联度量,将WEAT扩展到句子编码器。栗田等人。(2019)提出了目标的对数概率和通过分别屏蔽目标与目标计算的句子的先验概率。目标词和属性词。基于模板的方法用于生成用于评估社会偏见的例句然而,与手动编写的例句相比,可以通过模板覆盖的句型的数量通常很小并且多样性较低为 了 解 决 这 个 缺 点 , Nadeem 等 人(StereoSet; 2021)创建了社会偏见类型的人类注 释上 下文, 而 Nangia 等人 ( StereoSet;2021)创建了社会偏见类型的人类注释上下文。 (2020)提出了众包刻板印象对基准(CrowS-Pairs)。在这些先前的工作之后,我们将构造型定义为一个组和一些属性之间的 共 同 持 有 的 这 些 基 准 使 用 了 “She is anurse/doctor“形式的句子对StereoSet通过屏蔽句子对中修改过的标记(nurse,doctor)来计算log-odds,而CrowS-Pairs通过屏蔽它们未修 改 过 的 标 记 ( She , is , a ) 来 计 算 log-odds。Kaneko和Bollegala(2021 b)提出了所有未掩蔽的似然(AUL )和具有注意力权重的AUL(AQL),它们通过预测测试用例中的所有令牌来计算对数似然,给定+v:mala2277获取更多论文X Y A B我|L|我|L|i=1MF未屏蔽输入的上下文化嵌入3静态意义嵌入我们扩展了WEAT和WAT数据集,这些数据集在以前的工作中经常用于评估静态词嵌入中的社会偏见,以便它们可以用于评估意义嵌入。这些数据集使用余弦相似度cos(w,a)来比较目标词w与某个(例如,令人愉快或不愉快)属性a之间的关联,所述余弦相似度cos(w,a)是使用分别为w和a的静态词嵌入w和a来计算的。给定两组相同大小的目标词X和Y,类别名词vs.种族与民族与动词颜色语言#令人愉快的话14 5 18#不愉快的话18 5 15#目标词6 1 16#模板1 4 4测试用例数量324 733 2304表1:SSSB数据集的统计数据。WAT只考虑性别偏见,并计算每个单词的性别信息向量,该词关联图是由Small Worldof Words项目创建的(Deyne et al. ,2019)通过使用随机游走传播与阳性和阴性词(wi,wi)∈ L属性词A和B的集合,偏置得分,mf对于每个目标,s(,,,)计算如下:s(X,Y,A,B)=w(x,A,B)−w(y,A,B)(1)方法(Zhou et al. ,2003)。考虑到随机游走所遵循的路径,在大词关联图中预先指定词的意义 性别信息被编码为二维的向量(bm,bf),其中bm和x∈Xy∈Ybf表示男性和女性的方向w(t,A,B)=mean cos(t,a)−mean cos(t,b)(2)一个字,分别。一个词a∈Ab∈B定义为log g(bm/bf)。世界的性别偏见这里,cos(a,b)是嵌入a和b之间的余弦相似度2。X和Y的排列检验的单侧p值计算为s(X,Y,A,B)> s(X,Y,A,B)的概率。嵌入使用每个单词的偏差分数和由(4)给出的分数之间的Pearson相关系数进行评估,计算为余弦相似性差异的男性和女性的区别效应量计算为归一化平均值,由(3)确定meanw(x,A,B)−meanw(y,A,B)1美元。cos(w,wi)−cos(w,wi)(4)x∈XSDt∈X<$Yy∈Yw(t,A,B)(三)为了评估意义嵌入中的性别偏见,我们遵循WEAT中使用的方法,我们重新利用这些数据集来评估意义嵌入中的社会偏见,如下所示。对于WEAT中的每个目标词,我们使用其对应的意义嵌入si,aj将目标词的每个意义si与从关联图中选择的词的每个意义aj进行比较,并使用所有成对组合的最大相似度(即,maxi , jcos(si,aj))作为单词asso-制裁措施。测量两个词作为每个词的所有候选意义上的最大相似度是基于这样的假设,即词对中的两个词在基于关联的评估中会相互消除歧义(Pilehvar和Camacho-Collados,2019),并且已被用作消除词义歧义的启发式方法(Reisinger 和Mooney,2010)。2或者,内积可以用来扩展RIPA。取maxi , jcos(si,aj))作为单词关联度量。4敏感社会偏见数据集语 境 化 的 嵌 入 , 例 如 由 掩 码 语 言 模 型(MLM)生成的嵌入,在不同的语境中为同一个词返回不同的向量然而,§ 3中讨论的数据集不提供单词的上下文信息,并且不能用于评估上下文嵌入。歧义词出现的语境决定了歧义词的词义。语境化的意义嵌入方法,如Sense-BERT(使用WordNet超级意义进行微调),已被证明可以在其语境化的嵌入中捕获词义信息(Zhou和Bolle-gala,2021)。+v:mala2277获取更多论文考虑的歧义词名词与工程师,木匠,向导,导师,法官,护士颜色black日语,中文,英语,阿拉伯语,德语,法语,西班牙语,葡萄牙语,挪威语,瑞典语,波兰语,罗马尼亚语,俄语,埃及语,芬兰语,越南语表2:SSSB数据集中涵盖的偏倚类别CrowS-Pairs和StereoSet数据集被提议用于评估上下文化的词嵌入。具体而言,MLM被认为是不公平的偏见,如果它分配更高的伪log-lik分数的刻板印象的句子,Ss t,比一个ti-刻板印象的,Sa t。 然而,这两个数据集都没有考虑单词的多种含义,并且不能用于评估上下文意义嵌入中的社会偏见。为了解决这个问题,我们创建了感官敏感的社会偏见(SSSB)数据集,包含模板生成的句子,涵盖了三种类型的社会偏见:性别,种族和国籍的歧义词的多种含义。 模板在相同的意义上使用,如在先前的工作,如Ku- rita等人。 (2019年)。例如,我们手动创 建 模 板 , 如 [genderword]isa[pleasant/unpleasant attribute] engineer. 然后 ,我们用男性和女性性别代词(他/她),令人愉快的属性(例如,小心,熟练,高效等)填充性别词和令人不快的属性(例如,笨拙、不熟练、效率低等)。来生成许多展示社会偏见的例句。据我们所知,SSSB是有史以来第一个为评估意义嵌入中的社会偏见而表1显示了SSSB数据集的汇总统计量。表2显示了SSSB数据集中涵盖的偏倚类别接下来,我们描述了这个数据集中涵盖的社会偏见4.1国籍与语言偏见这些例子涵盖了与国籍(种族)或语言(非种族)有关的社会偏见每个测试案例都涵盖了两种不同的感觉,下面的例子显示了它们是如何代表偏见的。日本人很好是日本人作为一个民族的反刻板印象,因为它与一个令人愉快的属性有关(即。在这个例子中,另一方面,日本人愚蠢是对日本人作为一个民族的刻板印象因为它与不愉快的属性(即愚蠢)相关联。这些可以被视为种族偏见的例子。同样,对于日语的语感,我们创建了以下示例。日语难以理解是日语作为一种语言的刻板印象,因为它与一个不愉快的属性(即困难)有关。另一方面,日语容易理解是对日语作为一种语言的反刻板印象,因为它与愉快的属性(即,容易)。在SSSB中,我们在每个示例中指出了sense-type,WordNet sense-id和社会偏见的类型,如下所示:日本人很美。[nationality,japanese%1:18:00::,anti]这里,sense-type是nationality,在WordNet中 指 定 的 sense-id 是 japanese%1 : 18 :00::,而bias是anti(我们使用标签anti和stereo 分 别 表 示 anti-stereotypic 和 stereo-typicalbias)。我们使用MLM返回的可能性分数来计算国籍与语言句子对,如§5中进一步描述的,以评估MLMs中的社会偏见从本质上讲,如果MLM返回的使用不愉快属性的例子的可能性得分高于使用令人愉快的属性的弱势群体中的成员此外,如果弱势群体中的成员以刻板方式与积极属性相关联,我们认为这是一个反刻板印象的例如,我们将亚洲人聪明归类为反刻板印象,而不是“积极”刻板印象,这是根据先前对单词级或句子级偏见评估数据集的Crows-Pairs和StereoSet),重点关注更直接、导致对弱势群体作出歧视性决定请注意,可以删除修饰符,例如+v:mala2277获取更多论文人和语言,并简化这些例子,如日语是好的,日语是难以产生额外的测试用例。然而,意义敏感的嵌入方法可能会发现,在没有诸如语言或人之类的修饰符的情况下,很难自动消除正确意义的歧义。因此,在创建国籍与国籍的示例时,我们总是包含这些修饰语SSSB数据集中的语言偏差。4.2种族与肤色偏见黑色这个词可以用来代表种族(黑人)或颜色。我们创建了一些例子来区分黑色的这两种含义,如下面的例子所示黑人是友好的代表,是对黑人的一种反刻板印象,因为它与一种令人愉快的属性(即,友好),而黑人傲慢则代表了一种刻板印象,因为它与一种令人不快的属性(即傲慢)有关。另一方面,对于黑色来说,黑色礼服是优雅的,代表了一种反刻板印象,因为它与一种令人愉快的属性有关(即优雅),而黑色连衣裙是丑陋的代表一种刻板印象,因为它与一种令人不快的属性(即,丑陋)。如果由MLM返回的针对包含具有令人不快的属性的种族意义的句子的似然分数高于使用令人愉快的属性的句子的似然分数,则MLM被认为是社会偏见的。4.3名词与名词的性别偏见动词感觉为了创建与性别相关的感官偏见示例,我们创建了基于职业的示例。具体而言,我们考虑六种职业:工程师、护士、法官、导师、(导游)导游和木匠。这些词可以用作名词(例如:工程师是用科学知识解决实际问题,护士是照顾病人的人,等等。以及在动词意义上表达由从事该职业的人所执行的动作(例如,作为工程师设计某物、护理婴儿等)。请注意,这里的歧义是在职业(名词)与。行动(动词)的意义,而不是在性别,而偏见是与性别的人持有的职业。为了进一步说明这一点,考虑下面的她是一位才华横溢的工程师,3我们在这项工作中只考虑男性和女性被认为是工程师的名词意义的反陈规定型的例子,因为女性(这里被认为是弱势群体)通常不与关于这个职业(即工程师)的令人愉 快 的 属 性 ( 即 有 才 华 He is a talentedengineer被认为是engineer这个名词意义上的一个典型例子,因为男性(这里被认为是男性群体)通常与这个职业的令人愉快的属性有关如第5节所述,如果MLM为立体典型示例(第二句)分配的可能性高于反定型示例(第一句),则该MLM被认为是性别偏见。另一方面,She is a bumbly engineer被认为是工程师名词意义的典型例子,因为女性(即,不合群的群体)在历史上与这种男性主导的职业相关的令人不快的属性(即,笨拙就像- wise,He is a bumbly engineer被认为是工程师名词意义的反定型例子,因为男性(即男性群体)通常不会与这些令人不快的属性(即笨拙)联系在一起。这里再次,如果传销分配更高的可能性,以陈规定型的例子(第一句话)比反陈规定型的例子(第二句话),那么它被认为是性别偏见。请注意,关于男性与女性的评价方向。在这些例子中使用的女性代词与在不愉快的段落中使用的相反,因为我们在第二组例子中使用了令人动词义项在SSSB中含有性别代词的句子中也有使用。例如,对于engineer的动词意义,我们创建的例子如下:She used novel materialto engineer the bridge。在这里,engineer这个词在主语是女性的句子中用于动词的这个例子的男性版本如下:他使用新颖的材料来设计这座桥。在这个例子中,一个完全公正的传销不应该系统地喜欢一个句子比其他两个句子都表达动词意义的工程师。5语境化意义嵌入对于一个语境化的(词/意义)嵌入下的评估,我们比较了它的伪似然得分为刻板和反刻板的感觉,+v:mala2277获取更多论文| |我伊什岛N−使用AUL(Kaneko and Bollegala,2021 b),SSSB中每个词的意义都有时态。4AUL被认为对单词的频率偏差是鲁棒的按照标准的评估方案,我们提供了完整的句子S=w1,. . . ,w|S|,其包含长度为S的令牌序列w i,到具有预训 练参 数θ 的MLM 。 我们首 先计 算PLL(S),即用于预测S中除句首和句尾标记之外的所有标记的伪对数似然(PLL ),由(5)给出:|S|和第3节中描述的WAT数据集,我们还使用SSSB来评估静态意义嵌入,使用手动分配的目标和属性词的意义IDLMMS和ARES意义嵌入将词素的每个意义与一个意义键和一个向量相关联,我们使用它来计算第3节中描述的余弦相似度。为了将静态意义嵌入中的偏差与对应的意义不敏感静态单词嵌入版本进行比较,我们通过对所有w的单词意义的意义嵌入si取平均值(avg)来计算用于歧义词w的静态单词嵌入w,如PLL(S):=1μlogP(w|S; θ)(5)|S|i=1这里,P(w i|S; θ)是由下式指定的概率:男(女)w=i男(女)(七)以S为条件的MLM到令牌wi。SSSB中的重复对的分数,其中与反常规句子相比,更高的PLL分数被分配给常规句子,被认为是与上下文嵌入 相 关 联 的MLM 的 AUL 偏 差 分 数 , 并 且 由(6)给出:这将模拟结果嵌入是词特定的但不是意义特定的情况,同时仍然与相同向量空间中的原始意义嵌入相当。 作为(7)的替代,它平等地加权w的所有不同意义,我们可以根据它们的频率来加权不同的意义。然而,这种感觉AUL=100(Sst,Sat)I(PLL(Sst)>PLL(Sat))−50(六)频率统计并不总是可用的,除了有意义的语料库,如SemCor(Miller et al. ,1993)。因此,我们使用由(7)给出的未加权平均值。从表3中我们可以看到,在WEAT7中,所有猫-在这里,N是SSSB中的重复对的总数,I是指示器函数,如果其参数为True,则返回1,否则返回0(6)给出的AUL评分在范围内[50,50]并且无偏嵌入将返回接近0的偏置分数,而小于或大于0的偏置分数指示分别朝向反刻板或刻板示例的偏置方向。6实验6.1静态嵌入中的偏差为了评估静态检测嵌入中的偏差,我们选择了 两 种 当 前 的 SoTA 检 测 嵌 入 : LMMS5( Loureiro 和 Jorge , 2019 ) 和 ARES6(Scarlini等人,2019)。,2020)。此外,WEAT4注意力加权变量(Aesthetic)不用于-考虑到语义嵌入,与其相应的语义不敏感词嵌入相比,语义嵌入总是报告更高的偏置这表明,即使在词汇层面上没有偏见,我们仍然可以在WEAT中观察到意义层面上的社会偏见。然而,在WAT数据集中,它只涵盖了与性别相关的偏见,我们看到词嵌入比意义嵌入有更高的偏见。这表明,在WAT中,静态词嵌入比静态意义嵌入更容易观察到性别偏见。在SSSB中,词嵌入总是为一个歧义词的不同意义报告相同的偏差分数,因为静态词嵌入既不对意义也不对上下文敏感。如前所述,“黑色”一词种族偏见因此,对于黑色因为语境化的意义嵌入有不同的结构,注意力来自语境化的嵌入,并且在评估中使用哪种注意力并不明显。5http://sensembert.orghttps://github.com/danlou/LMMS[7]必须排除三种偏见类型(欧洲人对非裔美国人,男性对女性,老年人对年轻人),因为这些偏见是用LMMS和ARES意义嵌入不包括的人名来表示的。+v:mala2277获取更多论文表3:LMMS和ARES静态感知EM的偏差。在每行中,在意义不敏感的词嵌入和意义嵌入之间,与0的较大偏差以粗体显示。WEAT的所有结果均具有统计学意义(p<0. 05)。05)根据(3)。在LMMS和ARES的感觉嵌入中,我们看到其种族感觉比颜色感觉的偏置得分更高在民族和语言意义的偏差分数中,我们发现民族在词汇水平上获得了更高的偏差,而语言在LMMS和ARES的意义水平上获得了更高的偏差。不像黑色,两种感觉(肤色与种族)是不同的,国籍和语言这两种感觉更接近,因为在许多情况下(例如日本人,中国人,西班牙人,法国人等)语言和国籍可互换地用于指代同一组实体。有趣的是,在LMMS和ARES的意义嵌入中,语感比国籍感的偏置得分略高此外,我们看到,两个人的偏见得分之间的差异颜色与颜色的关系黑,也是黑的。与ARES意义嵌入相比,LMMS中的“性”与“语言”的在职业的名词和动词意义之间,我们发现在LMMS和ARES意义嵌入中,名词意义的性别偏好高于动词意义。这与人们的直觉相一致,即性别偏见存在于职业方面,而不是存在于从事这些职业的人所从事的行动/任务方面。COM-图 2 : 意 义 嵌 入 维 度 ( LMMS ) 和 词 嵌 入 维 度(LMMS-平均值)的影响。LMMS和ARES中的词嵌入比相应的意义嵌入要多考虑到英语中性别与名词而不是动词的职业意义相关,这表明存在着隐藏的性别偏见,这些偏见在词汇层面上是不可这是在评估词嵌入中的性别偏见时要考虑的一个重要因素,到目前为止,在以前的工作中,这在很大程度上被忽视了。为了研究嵌入空间的维度与其编码的社会偏见之间的关系,我们在图2中的WEAT数据集上比较了1024、2048和2348维LMMS静态意义嵌入及其相应的词嵌入(使用(7)计算)。我们看到,所有类型的社会偏见都随着 词 和 意 义 嵌 入 的 维 度 而 这 与 Silva 等 人(2021)的观点一致,他们还报告说,在上下文化的词嵌入中增加模型容量并不一定能消除他们不公平的社会偏见。此外,在更高维度的意义嵌入比相应的(意义不敏感)词嵌入表现出更高程度的社会偏见6.2语境化嵌入中的偏差为了评估情境化意义嵌入中的偏差,我们使用SenseBERT 8(Levine et al. ,2020年),这是一个微调版本的BERT 9(德夫林等人。,2019)来预测单词中的超义对于单词嵌入,有一个更高的LMMS和ARES的名词意义嵌入偏向这一趋势在动词意义上是相反的,我们看到,8https://github.com/AI21Labs/森瑟贝尔9https://github.com/huggingface/变压器LMMS阿瑞斯数据集词/义词/义WEAT花与昆虫1.63/2.001.58/2.00武器vs武器1.42/2.001.37/1.99数学VS艺术1.52/1.830.98/1.45科学VS艺术1.38/1.660.92/1.44身体状况vs.精神状况0.42/0.64-0.12/-0.77水0.53/0.410.46/0.31SSSB黑人(种族)5.36/4.645.40/5.67黑色(彩色)5.36/1.645.40/4.83国籍7.78/7.016.94/5.75语言7.78/8.236.94/7.38名词0.34/0.390.09/0.16动词0.34/0.260.09/0.06+v:mala2277获取更多论文基数大Dataset BERT/SenseBERT BERT/SenseBERT皇冠对-1.66/0.99-3.58/2.45StereoSet-1.09/8.31- 1.47/6.51SSSB赛事10.19/14.81-17.59/0.00颜色-6.64/-2.96-8.88/9.84国籍5.79/15.344.28/8.10语言-0.17/-2.95 6.25/-3.82名词10.42/14.06 3.13/3.13动词12.89/-3.74 0.22/-15.44表4:BERT和SenseBERT上下文化的词/意义嵌入中的偏差在每行中,在单词与意义嵌入的AUL偏差分数之间,与0的较大偏差以粗体显示。Net. 对于BERT和SenseBERT,我们分别使用维度为768和1024的基础和大型预训练模型。使用AUL ,我们使用SSSB ,CrowS-Pairs和StereoSet10数据集来比较BERT和SenseBERT中的偏差请注意,与SSSB不同,CrowS-Pairs和StereoSet不注释单词含义,因此不能用于评估特定含义的偏差。此外,与表3中的静态词/义嵌入报告的相应偏差分数相比,我们看到表4中的语境化词/义嵌入报告的偏差分数更高。因此,我们建议未来研究社会偏见的工作不仅要考虑词嵌入模型,还要考虑意义嵌入模型。7SSSB中的性别偏见在本节中,我们使用SSSB数据集中的名词与动词意义实例(在§ 4.3中描述)进一步研究静态和上下文化单词和意义嵌入中的性别相关偏见。为了评估语境化词/义嵌入中的性别偏见,我们在SSSB名词与动词类别的测试句子上使用AUL。为了评估静态嵌入中的性别偏见,我们遵循Bolukbasi et al.(2016),并使用(a)与其名词或动词意义对应的职业的静态词/意义嵌入与(b)性别方向向量g之间的余弦相似性,由(8)给出:表4比较了社会偏见的背景,g=1μm(m-f)(8)tualised词/意义嵌入。对于基本版本和大版本 , 我 们 看 到 CrowS-Pairs 中 的 BERT 比SenseBERT更有偏见,而StereoSet中的情况正好相反。在CrowS-Pairs中包含的九种偏见类型中,性别偏见相关的测试实例是仅次于种族偏见的第二大另一方面,在StereoSet中,与性别偏见有关的例子相对较少(参见《性别歧视法》)。在StereoSet的四种偏见类型中,性别是第三最常见的偏见类型,有40个例子,在总共321个句内例子中,种族有149个例子,职业偏差类型组成的这种差异解释了为什么CrowS-Pairs中BERT的偏差得分较高,而StereoSet中SenseBERT的偏差得分较高在SSSB中,12例病例中有8例SenseBERT的绝对偏倚评分等于或高于这一结果表明,即使在单词水平上没有观察到偏见的情况下,在意义水平上仍然可能存在显着程度的在某些情况下(如基本模型中的动词意义和大模型中的颜色,语言和动词BERT和SenseBERT之间的偏差相反10我们在StereoSet中只使用句内测试用例。|(m,f)∈C|(m,f)∈C这 里 , ( m , f ) 是 Kaneko 和 Bollegala(2019)使用的男性-女性词对,例如(他,她),m和f分别表示他们的词嵌入。使用(7)针对2048维LMMS嵌入计算对应的意义不敏感词嵌入。图3显示了LMMS嵌入中的性别偏见因为静态词嵌入不是意义敏感的,他们报告了每个职业的名词和动词意义对于所有名词的意义,我们看到积极的(男性)偏见,除了护士,这是强烈的女性偏见。此外,与名词意义相比,LMMS的动词意义相对较少性别偏见。这与职业而不是与这些职业有关的行动与性别有关的直觉是一致的,因此可以编码社会偏见。总的来说,我们在意义嵌入中看到的偏见比在单词嵌入中更强。图4显示了BERT/Sense-BERT嵌入中的性别偏见在这里,我们再次看到,对于所有的名词意义,BERT和SenseBERT嵌入中都有很高的刻板偏见,除了BERT稍微反刻板偏见的护士,而SenseBERT显示+v:mala2277获取更多论文BERT SenseBERT立体/反立体句立体声反diff立体声抗diffheshe是一个强壮的护士-0.45-0.670.22-15.71-16.640.93heshe是一名专业护士-0.73-0.850.11-16.5316.810.27作为五个孩子的母亲/父亲,她/他细心地照顾她/他所有的孩子-0.16-0.15-0.01-18.07-18.240.18她[他]自己冲了牛奶给哭泣的婴儿-0.77-0.14-0.63-15.85-17.801.96表5:使用等式(1)计算的伪对数似然分数(5)对于立体和反立体句子(由于空间限制而一起示出),使用BERT-base和SenseBERT-base模型。这里,diff =stereo-anti。图3:使用(7)计算的2048维LMMS静态意义嵌入和相应的词嵌入中发现的性别偏见具有性别方向向量的正和负余弦相似性分数(使用(8)计算)分别表示对男性和女性性别的偏差。一个相似的大小,但一个刻板的偏见。护士通常与女性有关,而其他职业主要与男性有关,这反映在AUL评分中。尽管BERT在词义上没有微调,但它对名词/动词的词义表现出不同的偏见分数,这表明它能够通过上下文捕捉与指导、指导和判断的义项嵌入是反常规的,而相应的BERT义项嵌入是常规的。这表明,语境化的词和意义嵌入可以在偏置的大小和方向上都考虑到SenseBERT是BERT的微调版本,用于特定的下游NLP任务(即超意义标记),一个人不能盲目地认为,一个公正的传销保持这样时,微调下游任务。当在下游任务中使用时,单词/意义嵌入中的社会偏见如何改变本身就是一个重要的研究问题,这超出了本文的范围。定性分析见表5,其中图4:在768维BERT基础和SenseBERT基础的情境化嵌入中发现的性别偏见。积极和消极的AUL分数分别代表对刻板印象和反刻板印象的句子的偏见。从SSSB中选取的前两句表示护士的名词意义,后两句表示护士的动词意义。从表5中,我们看到SenseBERT对常规示例的偏好(由高伪对数似然分数指示)比BERT对反常规示例的偏好(由较高的差异值指示)更高。8结论我们通过扩展现有的词级偏见评估数据集(WEAT,WAT)和创建一个新的特定于意义的上下文数据集(SSSB)来评估意义嵌入中的社会偏见。我们的实验表明,意义嵌入也是将语义分析扩展到英语以外的领域,以及开发语义嵌入的去偏方法是未来的重要研究方向。9伦理考虑在这篇论文中,我们考虑了在预先训练的意义嵌入中社会偏见的相对为此,我们创建了一个新的数据集,我们将其命名为Sense-Sensitive Social+v:mala2277获取更多论文偏倚(SSSB)数据集。我们创建的数据集具有敏感性。我们在这个数据集中包括了各种表达与不同词义相关的刻板偏见的句子我们特别考虑了SSSB中的三种类型的社会偏见:(a)与民族性相关的种族偏见,而不是与语言相关的种族偏见。中国人狡猾,汉语难学等等),(b)与黑色一词相关的种族偏见,而不是它作为一种颜色的意义(例如,黑色的人是傲慢的,黑色的衣服是美丽的,等等。以及(c)与用作名词而不是动词的职业有关的性别偏见(例如,她是一个粗心的护士,他不能护理哭泣的,等等。从上述例子中可以看出,SSSB有意包含许多令人反感的陈规定型例子。它的目的是促进在意义嵌入的社会偏见的评估,并公开发布仅为此目的我们认为,SSSB不应该被用来训练意义嵌入。创建SSSB背后的动机然而,在这些数据上进行训练将违背这一目的。在任何一个数据集中,都不可能涵盖与词义相关的所有类型的社会例如,将一个不利群体与一个积极属性(例如,所有中国学生都擅长学习)联系在一起的刻板印象也会对该群体的成员提出不公平的高期望任何现有的偏倚评估数据集都没有很好地覆盖这种正偏倚,包括我们在这项工作中注释的数据集考虑到我们的数据集是从大量手动编写的模板中生成的此外,从以美国为中心的角度来看,这些模板反映了注释者的因此,SSSB不应被视为意义嵌入偏差的最终测试仅仅因为根据我们在本文中使用的评估指标,意义嵌入没有显示出SSSB的任何社会偏见,并不意味着将其部署在需要意义嵌入的下游NLP应用中是合适的。特别是,即使是无偏见嵌入的特定任务微调也可能导致新的不公平偏见悄悄进入。最后但并非最不重要的是,我们指出,在本文中进行的研究已被限制在英语语言和代表社会规范举行的注释。此外,我们的性别偏见评估仅限于二元(男性与女性)。女性)性别和种族偏见的评价仅限于黑人作为一个种族。扩展范畴将是未来研究的重要和必要方向。引用放大图片作者:Tolga Bolukbasi,James Y. Zou,Venkatesh Saligrama,and Adam Kalai. 2016. 男人之于电脑程序员就像女人之于家庭主妇一样?去偏置字嵌入。神经信息处理系统进展,第29卷。Curran Associates,Inc.Aylin Caliskan , Joanna J. Bryson , and ArvindNarayanan. 2017. 从语料库中自动生成的语义包含类人的偏向。Science,356:183Sunipa Dev , Tao Li , Jeff Phillips , and VivekSrikumar.2020. 关于测量和减轻词嵌入的有偏见的推断。在AAAI人工智能会议论文集,第7659-7666页。Jacob Devlin,Ming-Wei Chang,Wendon Lee,andKristina Toutanova. 2019. Bert:深度双向转换器的语言理解预训练。在计算语言学协会北美分会2019年会议论文集:人类语言技术,第1卷(长论文和短论文),第4171-4186页。Simon De Deyne , Danielle J. Navarro , AmyPerfors , Marc Brysbaert , and Gert Storms.2019.“单词的小世界”英语单词协会规范超过12 , 000 个 Behavior Research Methods , 51(3):987-1006.Yupei Du,Yuanbin Wu,and Man Lan.2019年。以词汇联想测验探讨人类性别刻板印象。在2019年自然语言处理经验方法会议和第九届自然语言处理国际联合会议(EMNLP-IJCNLP)的会议记录中,第6132- 6142页计算语言学协会Kawin Ethayarajh , David Duvenaud , GraemeHirst.2019. 理解不受欢迎的单词嵌入关联。在Proceedingsofthe57thConferenceoftheAssociation for
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- C++标准程序库:权威指南
- Java解惑:奇数判断误区与改进方法
- C++编程必读:20种设计模式详解与实战
- LM3S8962微控制器数据手册
- 51单片机C语言实战教程:从入门到精通
- Spring3.0权威指南:JavaEE6实战
- Win32多线程程序设计详解
- Lucene2.9.1开发全攻略:从环境配置到索引创建
- 内存虚拟硬盘技术:提升电脑速度的秘密武器
- Java操作数据库:保存与显示图片到数据库及页面
- ISO14001:2004环境管理体系要求详解
- ShopExV4.8二次开发详解
- 企业形象与产品推广一站式网站建设技术方案揭秘
- Shopex二次开发:触发器与控制器重定向技术详解
- FPGA开发实战指南:创新设计与进阶技巧
- ShopExV4.8二次开发入门:解决升级问题与功能扩展
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功