没有合适的资源?快使用搜索试试~ 我知道了~
10442自监督学习视觉模型Kirill Sirotkin,Pablo Carballeira,Marcos Escudero-VinBogolo视频处理和理解实验室。Autoo' noma de Madrid,28049,Madrid(马德里),西班牙{kirill.sirotkin,pablo.carballeira,marcos.escudero} @ uam.es摘要深度神经网络在学习数据分布方面是有效的,如果它被充分采样的话。然而,它们可能会受到训练数据中隐含的非相关因素的强烈偏见。这些包括操作偏差,如无效或不均匀的数据采样,但也有道德问题,因为社会偏见是隐含的,甚至无意中,在训练数据或明确定义在不公平的培训时间表。在影响人类进程的任务中,学习社会偏见可能会产生歧视性、不道德和不可信的后果。人们通常认为社会偏见源于对标记数据的监督学习,因此,自我监督学习(SSL)错误地表现为一种有效和无偏见的解决方案,因为它不需要标记数据。然而,最近证明,一种流行的SSL方法也包含偏差。在本文中,我们研究了一组不同的SSL视觉模型的偏差,这些模型使用ImageNet数据进行训练,使用心理学专家设计的方法和数据集来测量社会偏见。我们发现,SSL模型的类型和它所包含的偏差数量之间存在相关性此外,结果还表明,这个数字并不严格取决于模型最后,我们得出结论,谨慎的SSL模型选择过程可以减少部署模型中的社会偏见数量该代码可在https://github.com/vpulab/SB-SSL上获得。1. 介绍监督深度学习模型目前构成了计算机视觉和自然语言处理领域的最新技术然而,自我监督学习(SSL)领域的最新发展[17,24]-一种无监督学习,正在慢慢缩小通过人类指导获得的认知差距,通常以目标标签的形式提供。SSL方法旨在解决预先制定的借口任务-由自动生成的标签定义,其解决方案预计需要对数据的高级理解,以便学习具有强可转移性潜力的描述性特征嵌入。人类的社会偏见是一种经过充分研究的现象,在某些情况下,可以用数字量化[23],它会导致对社会群体的不合理偏见,其中包括年龄,性别和种族等方面。虽然人们不能将偏见或偏好分配给深度学习方法,因为这些是仅归因于人类的高度主观特征,但如果标记的训练数据分布本身有偏见,深度学习方法可能会错误地关联某些概念[45]。在实践中,这导致了社会偏见的复制。 研究并报告了几例病例,包括:基于上下文线索的不正确的性别预测(即,位置-厨房,办公室),而不是与所描述的人相关的视觉证据[30],女性候选人的自动高薪工作推荐数量少于男性候选人[20],以及在约会/政治决策背景下促进有偏见的建议[7]。预见到这些情况,国际上正在制定倡议,以消除训练数据中的社会偏见,如欧盟委员会发布的《值得信赖的人工智能伦理指南》所述,并规范具有潜在人类影响的机器学习方法的使用,如许多美国法案[2,3,18]和其他国家的立法文件[1,4- 6 ]。以前,已经证明监督学习模型倾向于从包含它们的数据集隐式学习偏差[9,27,30],因为这些人类偏差被封装在目标标签中。例如,已经证明ImageNet的早期版本[21]暴露了肤色,年龄和性别的不平衡分布,导致某些群体的代表性不足[43]。此外,收集从网络上抓取的原始评论的数据集[10,40]包含对某些社会群体的明确偏见[31]。SSL方法是无监督的,预计将10443不受偏见标签的影响。然而,由于他们需要大量的训练数据,这往往会阻碍其策展,数据本身不太可能包含一些社会人类偏见。事实上,最近的一项研究[37]的结果表明,两种最先进的无监督学习模型也包含从数据中学习到的关联偏差,只有在这种情况下,它不能用类别标签的选择来解释,因为无监督模型在训练过程中没有利用这些信息。这一结果表明,至少有一个表现最好的SSL模型[15]可能在训练解决目标借口任务时隐式地学习社会偏见因此,应该小心处理数据,因为神经网络避免不受欢迎的社会偏见的无意渗透的能力是深度学习模型设计中需要考虑的重要质量,本文针对这一现象,试图回答以下问题:SSL设置中偏差的起源是什么?是什么影响了模型学习内隐社会偏见的倾向?模型的准确性和它学习到的偏差之间的关系是什么?虽然初步工作解决了第一个问题和关于几个无监督模型中隐式社会偏见起源的假设大小[37],但据我们所知,这是第一次尝试研究更广泛和更多样化的SSL模型集特别是,本文的贡献是:• 我们研究了11个SSL模型获得的关联偏差,这些模型共享相同的ResNet-50 [29]架构,并且在借口任务方面有所不同,因此,在迁移学习后它们的准确性。本研究的结果表明,借口任务的性质影响了整合偏差的数量和性质,对比模型更容易获得隐含在数据中的偏差联想。• 我们还对模型不同层的嵌入中获得的偏差进行了分析,结果表明偏差的数量和强度在不同的模型深度上有所不同。每层分析的结果表明,在迁移学习应用中仔细考虑偏差可以改善偏差和准确性之间的权衡,因为使用来自高偏差层的嵌入实现的准确性与偏差较小的嵌入层实现的准确性相差不远。2. 相关工作2.1. 测量计算机视觉模型许多现有的测量偏见关联的方法都是基于内隐关联测试(IAT)[23],该测试测量目标概念和属性之间的差异关系。IAT措施当将倾向于存在和不存在偏见关联的概念和属性相关联时,应答者的反应时间的差异。例如,将概念花与属性愉快强烈关联的有偏见的测试对象花费更少的时间来关联表示它们的口头或视觉刺激,而不是将表示概念昆虫的刺激与属性愉快关联。直到最近,关联偏差测试主要用于自然语言处理(NLP)[11,19,35,39,45],但最近的工作将单词嵌入关联测试(WEAT)[11]扩展到图像领域,从而可以量化计算机视觉模型中的关联偏差该方法被称为图像嵌入关联测试(iEAT),其基于通过将表示这些概念和属性的图像馈送到训练的深度学习模型而获得的图像嵌入来测量目标概念X和Y与属性A和B的差异例如,假设所选择的目标概念是昆虫(X)和花(Y),并且属性是令人不快的(A)令人愉快(B)。然后,利用嵌入X、Y、A、B之间的余弦距离进行关联检验,以确定昆虫与不愉快、花与愉快之间的关联强度更详细的解释见第3节。2.2. 基于自监督学习模型的图像嵌入在本文中,我们将图像嵌入称为当特定图像被馈送到深度学习模型时,在深度学习模型的给定层提取的特征。这些嵌入被接受为对训练目标的图像的代表性描述。通常,人们可以预期,在给定的层和给定的架构,学习模型的性能越高,嵌入的代表性就越强。获得图像嵌入的常见方法是使用在监督模式中训练的网络[29,38]。或者,如果图像要在标签稀缺场景中表示为需要专家注释的医疗数据或使用以非视觉模态捕获的设备获取的数据,则可以使用SSL模型。SSL方法,而不是被训练用于标签驱动的任务,可以通过使用目标来训练,例如简单的几何任务[22,32],通过自动聚类生成的伪标签[12,44],或促进特征空间中“相似”数据点的接近度这些目标通常被称为托词任务,可用于将SSL模型分为以下三组。几何模型定义借口任务的最直接的方法之一是对输入图像应用几何变换并训练网络来解决它。10444教师网络来定义伪标签。随后,在在线深度聚类(ODC)[44]中,标签使用小批量更新,并且该过程被集成到模型更新中。通过这种方式,嵌入和标签一起进化,消除了DC固有的不稳定性。图1.图像代表超重的人(在顶部)和瘦的人(在底部)的概念。图像用于识别iEAT和原始IAT中的重量-效价偏倚[23]。图2.代表效价概念的图像:愉快(在顶部)和不愉快(在底部)。这些图像对应于通常用于描述效价概念的言语刺激[23]。这篇文章是旋转预测[32],相对补丁位置预测[22]和拼图[36]。旋转预测借口任务随机应用4个旋转中的一个:0 °、90 °、180 °、270 °,并训练网络以预测应用了哪种旋转to a given给定image图片.另一方面,被训练来预测补丁位置的模型是基于从输入图像中随机采样两个接近的区域,并训练网络来预测它们的相对空间位置。最后,当遵循拼图策略时,图像被划分为瓷砖,然后随机洗牌。然后,训练网络来预测它们的原始排列。深度无监督学习的一种更复杂的方法是基于经典的聚类方法,该方法用于根据一些同质性标准将未标记的数据分组到聚类中。将聚类合并到借口任务公式化中的一个明显方法是在每个模型更新步骤之后执行聚类。然后将生成的标签用作伪标签,以监督的方式评估模型这些标签反过来会在下一步改变嵌入,因为新生成的标签可能与前一步的标签不同。这是深度聚类(DC)[12]遵循的策略,由于每个步骤中标签的随机排列,该策略在训练过程中存在不稳定性。为了解决标签每突变和不稳定性的问题,聚类拟合[42]依赖于使用对比模型表现最好的SSL模型是由使用对比损失的借口任务驱动的[26]。尽管具体的实现方式因模型而异,但主要思想保持不变:来学习将积极的一面紧密地联系在一起并将消极的一面推开的表达方式。可以基于相同图像中的补丁的修改或应用从相同图像获得的不同增强来选择阳性非参数实例识别(NPID)[41]将每个输入图像(实例)视为属于一个唯一的类,并训练分类器通过噪声对比估计[25]在每个实例之间进行分离。它的动机来自于监督学习方法为相关图像返回类似嵌入的观察。具体而言,通常情况下,在模型结束时的第二个最高得分预测类在语义上接近人类解释后的第一个。因此,期望网络学习类之间的语义相似性,而不明确地将其作为目标。动量对比度(MoCo)[28]利用动态字典,其中查询和相关键表示使用编码器网络获得的图像编码如果一个查询和一个键来自同一个图像,它们被认为是一个正对,否则是一个负对。查询和关键字由单独的网络编码,并且关键字编码器被更新为查询编码器的移动平均值,从而实现用于学习视觉表示的大且一致的字典。基于对比学习原理的视觉表征对比学习简单框架(Simplified)[14]引入了一系列设计变更,使其在不需要记忆库的情况下优于MoCo [28]在这些变化中,更仔细地选择数据增强策略,在嵌入和对比损失之间添加非线性,以及增加批量大小和训练步骤的数量。进一步改进Simplified [14]的结果,第二版动量对比模型(MoCo v2)[16]确认其有效的设计选择,并利用MLP投影头和更多的数据扩充。Bootstrap Your Own Latent ( BYOL ) [24] 在ImageNet线性分类上达到了新的最先进水平,同时避免了其他对比模型面临的最大挑战之一:需要负对。BYOL通过用随机初始化的模型生成目标表示,然后将它们用于其上,10445----线训练。通过迭代更新目标网络,在线网络有望学习得越来越好,mean s(x,A,B)-mean s(y,A,B)句子最后,SwAV [13]描述了一种混合聚类-d=x∈XSTDt∈X<$Yy∈Ys(t,A,B).(三)- 对比方法,其通过将数据聚类在不同图像增强的一致性强制聚类中来避免计算阳性和阴性样本之间的成对距离从而,根据聚类隶属度定义阳性样本,降低了其他对比方法的距离存储要求。3. 方法给定第2.2节中描述的SSL模型集,我们应用第2.3节中介绍的iEAT框架[37]。2.1到每个模型,并调查关联偏差的存在。 iEAT采用表示目标概念(X,Y)的图像的一组输入嵌入x,y和表示测量属性(A,B)的一组输入嵌入a,b。例如,目标概念超重人和瘦人由图1上的示例图像表示,而属性愉快和不愉快可以由表示价概念的图像可视化(参见图2中的示例)。iEAT测试的零假设表明,X=超重的人嵌入与Y=瘦人嵌入与(A,B)=(愉快,不愉快)嵌入一样相似,或者不同之处是相似的。零假设的拒绝意味着一个目标概念比另一个目标概念与一个属性更相关,因此检测到关联偏差。iEAT通过突变检验和量化差异关联s(X,Y,A,B)的度量来检验零假设,定义如下:s(X,Y,A,B)=s(x,A,B)−s(y,A,B),(1)因此,给定网络模型的完整偏差检测流水线包括提取表示2个目标概念和2个属性的4个图像集的深度特征嵌入(即,主页vs.男性-女性),并在这些嵌入集上运行上述排列测试。我们根据iEAT框架1[37]的作者提供的数据评估SSL模型这些数据包含了一系列目标概念的视觉刺激,如种族、性别和年龄。该数据集包含3至55名心理学家从成熟的IAT测试[23],CIFAR-100数据集[33]或网络中选取的每个概念的图像。根据上述方法,我们收集了代表iEAT框架中提出的39种关联偏倚中每一种的可能性和强度的p值和d值(完整列表见补充材料)。本文中使用的所有模型都是在Ima-geNet 2012 [ 21 ]上训练的,并且共享相同的主干架构:ResNet-50 [29].预训练网络的权重取自OpenSelfSupervised Framework2和VISSL3,训练超参数见表1。我们评估从第一个最大池化层(下文中的层1)获得的嵌入,以及在每个ResNet块(层2-5)和最终全局平均池化(GAP)之后获 得 的 嵌 入 。 To achieve a more compre- hensiveoverview of the presence of biases in the SSL mod- els, wedo not limit our choice to the state-of-the-art archi-tectures and select networks that conceptually represent dif-ferent approaches for SSL: Rotation prediction (Rotation)[32], Relative patch location prediction (Relative Location,RL) [22], Jigsaw puzzles [36], SwAV [13], ClusterFit[42],其中:x∈Xy∈YODC [44]、NPID [41]、MoCo v1 [28]、MoCo v2 [16]、Sim-[14]和BYOL [24],以及随机初始化的ResNet-50(随机)和完全监督的ResNet-50(su-s(t,A,B)= mean cos(t,a)−meancos(t,b)对于t ={x,y}。[29]第二十九话a∈Ab∈B(二)置换测试随机打乱表示目标概念(X,Y)的嵌入集合的标签,产生10000个随机置换集合(或集合大小所允许的最大然后,差分关联(等式1)的每一个这些置换集的测量。p值收集导致比原始集合更大或相等的差异关联的置换集合的百分比。如果p值低于某个阈值,则可以以高概率拒绝零假设(并因此检测到偏倚)。偏差的强度可以通过效应量(d值)来测量,该效应量(d值)测量两组目标概念样本到属性样本的距离的两个分布之间的间隔[11]:4. 实验结果本节总结了最深ResNet-50嵌入以及其中间层和浅层嵌入的偏差检测结果如第3节所述,p值通过排列检验获得由于该试验的固有随机性,我们将每个实验重复三次,以确认结果的一致性,并对获得的p值和d值取平均值(统计误差结果见补充材料)。此外,我们评估了三个实例,1个在CC BY-NC-SA 4.0许可证2https://rb.gy/rveisohttps://rb.gy/iz1xlg10446拼图旋转相对位置ClusterFitODSwAVNPIDMoCo_v1MoCo_v2模拟BYOL监督随机4321拼图旋转相对位置ClusterFitODSwAVNPIDMoCo_v1MoCo_v2模拟BYOL监督随机4321模型中识别的偏倚数量(best层)表1.用于训练SSL模型和完全监督的ResNet-50的超参数Jigsaw RL JetterFit Rotation NPID ODC MoCo v1 Simplified MoCo v2 BYOL SwAV Sup.批量256512256512256 512256409625640964096 256历元1057010570200 440200200200200200 90碱LR0.10.20.10.20.03零点零六0.030.30.030.30.3 0.1ImageNet精度48.57 49.31 53.63 54.99 56.61 57.70 61.02 66.61 67.69202019 1918 1817 1716161515141413131212111110109988776655443322110010 10 10pt101010 10 10pt(a) 第二个ResNet块(b) GAP ResNet层图3.不同p t值的偏倚数量。p t值较低时检测到的偏倚在统计学上更为显著。对比模型用粗实线绘制,几何模型和基于聚类的模型用虚线绘制。的随机ResNet-50模型,以考虑随机权重初始化。因此,随机模型报告的p值和d值是三种情况和三种排列检验的平均值。4.1. GAP嵌入对不同SSL模型上存在社会偏见的第一次分析是使用CNN架构最深层的嵌入来执行的在ResNet-50的GAP层之后,(下文中的GAP嵌入)。GAP嵌入通常在迁移学习场景中表现出很高的性能(尽管不一定是最高的)。因此,考虑到GAP嵌入相对于在先前层处提取的那些嵌入的维数降低(这导致在它们之上更快地训练分类器),它们是迁移学习应用的常见选择如果通过排列检验产生的p值测量的统计显著性低于特定阈值pt,则认为模型中存在偏倚。由于缺乏普遍正确的pt值,对偏倚检测进行分类的一种可能方法是将它们如前所述,将其分为几个重要的组[37]。在这里,我们采用类似的方法,并探索模型在[10−4,10−1]区间内pt值所获得的偏差-该区间位于高统计显著性范围内图3b显示了在十三个考虑的模型的GAP嵌入处发现的相对于p值阈值的偏倚数量。从图3b可以观察到两组模型之间检测到的偏差数量的明显分离:对比SSL模型比基于几何/聚类的模型产生更多的偏差,RL模型的概念例如,在pt= 10−2时,没有检测到旋转模型的偏差,并且只有2个偏差被去除。检测ODC,而对比模型的偏差数量范围从8到12。这适用于任何阈值,表明这一结论的可靠性。图4所示的三组模型之间获得的偏倚数量差异很大,也表明了这一点。特别是对于在GAP嵌入中检测到的交叉偏差(最常见的偏差)。所有嵌入和偏差的结果都在补充材料中。我们定量地评估数字上的差异模型中识别的偏倚数量10447交叉-性别-科学交叉-性别-职业交叉-效价6543210图4.在全局平均池层的嵌入中检测到的交叉偏差的数量,pt<0。01.请注意,混合聚类-对比模型SwAV [13]被标记为聚类方法,以提高图的可读性。对比和非对比模型获得的偏差,通过对两组相同大小的 模 型 中 存 在 的 偏 差 进 行 统 计 分 析 : i ) 对 比 剂(NPID、Simplified、MoCo v1、MoCo v2、BYOL)和ii)非对比剂(Jig- saw、Rotation、ODC、RL、RotterFit):1. 最初,pt被设置为0,并且逐渐增加到0.1(即,pt在图3b)的x轴方向上移动。2. 对于每个pt值,我们:2.1. 计算δorig:对比集和非对比集的偏差数之差。2.2. 在对比集和非对比集之间置换标签,并且对于每个置换k,计算δk:置换中生成的两个集的偏差2.3. 对于每个置换k,检查if(δorig δk),并使用它来估计随机置换集合比原始集合具有更多偏差3. 最后,我们对pt的每一步计算的概率进行平均。该检验产生的p值为0.049,通过拒绝零假设验证了前提:“对比模型并不比其他模型更有偏见”。最后,如果我们将图3b中的偏差数据与表1中的准确性数据进行比较,则模型的分类准确性与其偏差数量之间没有直接联系。合并。事实上,BYOL和MoCo比更准确的监督模型获得了更多的偏见。此外,最不准确的模型(RL)是包含最多偏差的模型之一。4.2. 随机模型对基线随机ResNet-50模型的嵌入进行偏差分析,我们发现了大量的偏差。虽然随机初始化的模型不可能始终包含某些偏差,但在与特定测试数据相关的条件下,偏差检测本身是可能的。我们假设随机模型中的偏差检测来自测试数据中的相关性,这些相关性是由一些低级别特征之间的强相似性引起的。为了检验这一假设,我们随机地对图像中表示两个目标概念的像素进行静音(即,武器,工具),同时留下代表两个属性的图像(即,黑色,白色)不变,并重复偏倚测试。这允许从图像中删除我们对随机模型中检测到的13种社会偏见进行了该测试,并观察到在像素排列之后,其中11种仍然存在(完整结果见补充材料),并且在 某些情 况下, 甚至具 有较 低的p值( Lincoln-Trump vs.愉快-不愉快)。4.3. 逐层分析由于内部CNN表示[8]中的语义可解释性增加,预计偏差的强度和数量在网络架构的不同层中会有所不同,因此偏差检测过程是在从所有ResNet块中提取的特征嵌入上进行的。我们的研究结果部分描述在图3中,该图显示了第2个 ResNet块和全局平均池层嵌入中pt变化的偏差的累积数量。图5通过总结从所有ResNet块中提取的嵌入中的偏差数量和累积强度来补充这些结果偏差的强度是指d值(第3节),累积强度是所有检测到的偏差的d值之和图3a所示的结果表明,在语义上类似于低级特征的浅层次ResNet层的特征嵌入中也检测到了然而,在浅层中检测到的偏差大多重复所有模型。例如,在图3a中,在p10−2处的五个偏差中,有一个是所有模型都常见的,并且与种族有关。另一方面,该功能嵌入-如图3b所示,从较深的层中提取的凹痕在给定相同的阈值的情况下导致更多的偏差。这句话适用于所有的模型,除了ro-几何聚类对比p <0.0110448站预测模型在模型方面,具有相同统计显著性程度的偏差数量在浅层嵌入中更加均匀,并且在网络的末端开始不同,对比SSL和监督模型具有更大量的偏差。表2.根据图像中存在的人的性别,家庭-家庭-夫妇类别的分类准确性。M代表通过分析不同ResNet块的嵌入在p10−2(图5)处的偏置检测,我们可以深入了解ODC,准确度(%)同时,准确度(%)在不同的模型深度识别的偏差的数量和强度的分布总体而言,检测到的偏差的累积强度在第3和第4块附近最小,并且在第5块处增长。可以观察到,一些模型(例如,旋转、拼图和监督)偏离这种模式。最后,对于每个模型,第一个ResNet块的嵌入产生了一些最高的累积强度值。4.4. 下游任务此外,我们进行了一个初步的实验,进一步证实了一个对比模型比一个聚类模型更有偏见的实际后果。具体来说,我们分析了两种SSL模型:Simplified(对比)和ODC(聚类)。根据性别-职业偏向的p值和d值(见补充材料表7),Simplified中人们的职业(职业)分类比ODC中更偏向于性别。为了验证这一结果,我们将SSL模型的知识转移到图像子分类器的关系分类器中,并评估男性和女性受试者的分类准确性差异。为此,我们在Simplified和ODC特征之上训练了我们在测试集上评估了两个模型的预测,其中人们的性别已经在400张图像中手动注释(仅男性:M,仅女性:F,以及男性/s和女性/s:M+F)。表2显示了每个关系类别、整个测试集(A)以及M、F和M+F性别子集的分类准确度。结果表明,尽管Simplified总体上表现更好(与表1中的结果一致),但在女性专业人员的分类方面不如ODC准确,而在男性专业人员的分类方面则更好因此,在SSL主干中检测到的性别-职业偏见被转移到下游任务,并显著影响有利于男性受试者的“专业”预测的结果5. 对实验结果5.1. 偏误数量与SSL学习策略的关系图3b和图5表明,使用对比SSL模型获得的深度嵌入显示出比SSL模型更多的偏差一MFM+F一MM+F专业人员56.375.2 82.5 72.7 66.7家庭56.355.6 56.3 37.5 59.4几44.0 59.1 28.633.354.0 68.2 42.9 42.9朋友40.9 38.6 45.0 41.3 50.9 50.0 45.0 54.4用几何模型和基于聚类的模型计算。我们推测,这种差异的原因可能在于对比损失函数的性质。如果图像相似,则对比损失促进表示概念和属性(不一定相关)的两个图像的特征之间的相似性相反,基于几何的损失函数不会像对比函数那样放大这种环境此外,我们指出,SSL模型的更高分类准确性并不一定会导致更多的社会偏见纳入其中。图5提供了一个很好的例子,显示了在研究中最不准确的模型之一(RL)产生了最高的偏差累积强度。除了它,ODC证明了比NPID累积偏差强度差,同时更准确(基于在第5个 ResNet块的特征上训练的线性分类器上述结论可能在为影响人类流程的任务部署深度学习模型方面具有重要应用:在迁移学习的上下文中,当选择从中提取嵌入的模型或层深度时,不能仅仅依赖于最终精度。基于ImageNet性能,我们认为,对于某些模型,优先考虑嵌入可能是有益的,这会导致精度略低,但会显着降低识别偏差的强度。例如,对于在NPID的第5个块和GAP层的嵌入上训练的两个线性分类器,ImageNet上的分类精度差异仅为0.01%。同时,这两个层的偏差的累积强度相差9%。此外,在NPID的GAP嵌入上训练的分类器比在ODC的GAP嵌入上训练的分类器准确3.18%,但它们获得的交叉偏倚的数量显著不同(见图4)。5.2. 沿层尽管模型初始层中存在偏差可能违反直觉,但我们相信它可以1044913.59.611.110.18.56.210.28.82.19.56.16.55.24.88.49.65.69.610.94.37.25.52.14.96.96.47.58.18.75.35.73.83.73.83.95.54.74.65.04.64.24.83.74.04.78.16.34.86.14.84.95.94.62.94.95.95.03.14.74.95.05.06.113.212.815.613.514.612.4 12.614.612.49.86.07.87.8块1块2块3块4块5 层间隙505040403030202010100 0(a)p值0.01的累积偏倚强度(b)p值0.01的偏倚数量<<图5.在不同层中检测到的偏差的累积强度(左侧)和数量(右侧)偏倚数量与累积强度相关(参见补充材料中的其他图模型根据其在ImageNet上的分类准确性进行排序通过测试数据的低级特征和在CNN的浅层中学习的滤波器的性质之间的相关性来解释类似的数据问题影响第一层和随机模型,如第4.2节所述。例如,在所有模型的第1块嵌入中一致检测到的许多偏差涉及肤色和效价或体重和效价。考虑到表示愉快概念的图像包含较亮的像素(如白色肤色的图像)并且表示不愉快概念的图像包含较暗的像素(如深色肤色的图像),可以预期,在对应嵌入之间识别的相关性可能是由这些数据因素引起的(正如我们在补充材料中所探讨的那样),而不是通过所描绘的概念的含义。关于偏差的分布,除了第一层中的上述行为外,随着对比模型的推进,偏差的强度和数量都会增加,获得的偏差的数量和强度与给定模型每一层嵌入的分类潜力密切相关-通常越深越好,如OpenSelfSupervisedFrame中所报告的那样:模型中的嵌入越专业化,获得的偏差就越多、越强。在RL模型中也可以观察到同样的监督模型中的偏差沿层分布更均匀,并且在最后一层中强烈增加,可能是因为这些更接近标签引导分类层。旋转模型显示了不同的行为,较低和较低强度的偏差均匀分布在模型上,没有代表性。GAP层中的有效偏差。6. 结论在这项工作中,基于现有的方法,我们研究了三种类型的SSL模型中常见的社会偏见的存在:几何的、基于聚类的和对比的。我们发现,检测到的偏见的数量并不依赖于SSL模型的分类精度,但其类型,对比模型产生的偏见数量最多。此外,我们表明,偏见的存在是不恒定的跨模型的不同层,并且这种层分布的偏见跨模型的变化。鉴于这些发现,我们建议在对(监督或SSL)预训练模型进行迁移学习时,应考虑偏差的数量和强度以及由此产生的准确性特别是对于对人类过程有影响的任务然而,并不是所有的开放性问题都得到了回答:源自训练数据的偏差源需要被隔离,并且在模型训练期间使用的数据集的影响需要被更密切地调查。事实上,这项研究考虑了大量的模型,尽管它们都只在ImageNet上训练。这种限制为进一步探索使用不同数据集训练的模型中出现的偏差开辟了途径。鸣谢:这项工作得到了马德里市教育委员会(Consejer'ıadeEducac io' neI nv esti g ac io'n)在项目SI 1/PJI/2019-00414下的支持。1211121086210996556599936107976576955445443334444864544455445533444451413131111121111117875偏倚强度(d值)偏倚数量10450引用[1] 肯尼亚1[2] SB 6280 - 2019-20。关于面部识别服务的使用1[3] SB S5140B。与生物识别技术的使用有关1[4] 印度最高法院判决,K。S.普塔斯瓦米河谷印度联邦,印度最高法院,令状请愿书(民事)第1000号。494,2012年。1[5] 爱德华·布里奇斯诉南威尔士警察局长和内政部国务秘书,EWHC 2341(行政),案件号。CO/4085/2018,2019年9月4日,第59段。1[6] 牙买加最高法院判决,Julian Robinson诉在牙买加JMFC完整04,2019的Torney将军。1[7] Ujue 'Agudo和Helena Matute。算法对政治和约会决策的影响Plos one,16(4):e0249454,2021.1[8] David Bau,Bolei Zhou,Aditya Khosla,Aude Oliva,and Antonio Torralba.网络解剖:量化深层视觉表征的可解释性。在IEEE计算机视觉和模式识别会议论文集,2017年。6[9] 阿夫里姆·布鲁姆和凯文·斯坦格尔从偏差数据中恢复:公平约束能提高准确性吗?在第一届负责任计算基础研讨会上,第156卷,第3:1-3:20页,2020年。1[10] Daniel Borkan,Lucas Dixon,Jeffrey Sorensen,NithumThain,and Lucy Vasserman.用于测量文本分类真实数据的非预期偏差的细微度量。在2019年万维网会议的配套程序中,第491-500页,2019年。1[11] Aylin Caliskan,Joanna J Bryson,and Arvind Narayanan.从语料库中自动导出的语义包含类似人类的偏见。Science,356(6334):183-186,2017. 二、四[12] Mathilde Caron,Piotr Bojanowski,Armand Joulin,andMatthijs Douze.用于视觉特征的无监督学习的深度聚类。在欧洲计算机视觉会议论文集,第132-149页,2018年。二、三[13] Mathilde Caron , Ishan Misra , Julien Mairal , PriyaGoyal,Piotr Bojanowski,and Armand Joulin.通过对比聚类分配的视觉特征的无监督学习。神经信息处理系统进展,第33卷,第9912-9924页,2020年。四、六[14] 陈婷,西蒙·科恩布里斯,穆罕默德·诺鲁齐,和葛offrey Hinton.视觉表征对比学习的一个简单框架国际机器学习会议,第1597-1607页。PMLR,2020年。二、三、四[15] Ting Chen , Simon Kornblith , Kevin Swersky ,Mohammad Norouzi,and Geoffrey E Hinton.大型自监督模型是强半监督学习器。神经信息处理系统进展,第33卷,第22243- 22255页,2020年。2[16] Xinlei Chen,Haoqi Fan,Ross Girshick,and KaimingHe.通过动量对比学习改进基线。arXiv预印本arXiv:2003.04297,2020。二、三、四[17] Xinlei Chen,Saining Xie,and Kaiming He.训练自我监督 视 觉 转 换 者 的 实 证 研 究 。 arXiv 预 印 本 arXiv :2104.02057,2021。一、二[18] Kate Conger,Richard Fausset,and Serge F Kovaleski.旧金山禁止面部识别技术。《纽约时报》,2019年14日。1[19] Christine Basta Marta R Costa-juss和Noe Casas。评估语境化词嵌入中潜在的性别偏见。GeBNLP 2019,第33页,2019年。2[20] Amit Datta,Michael Carl Tschantz和Anupam Datta。广告隐私设置的自动化实验:一个关于不透明、选择和歧视的故事。arXiv预印本arXiv:1408.6491,2014年。1[21] Jia Deng , Alex Berg , Sanjeev Satheesh , Hao Su ,Aditya Khosla,and Fei-Fei Li.大规模视觉识别挑战。www. 图片网org/challenges/LSVRC/2012,1,2012. 1、4[22] Carl Doersch、Abhinav Gupta和Alexei A Efros。通过上下文预测的非监督视觉表示学习在IEEE计算机视觉和模式识别会议论文集,第1422-1430页二、三、四[23] Anthony G Greenwald,Debbie E McGhee和Jordan LKSchwartz。测量内隐认知的个体差异:内隐联想测试人格与社会心理学杂志,74(6):1464,1998。一、二、三、四[24] Jean-BastienGrill , FlorianStrub , FlorentAltche' ,CorentinTallec,Pierre Richemond,Elena Buchatskaya,Carl Doersch , Bernardo Avila Pires , Zhaohan Guo ,Mohammad Ghesh- laghi Azar , Bilal Piot , KorayKavukcuoglu,Remi Munos,and Michal Valko.Bootstrapyour own latent:一种新的自我监督学习方法。神经信息处理系统进展,第33卷,第21271- 21284页,2020年。一、二、三、四[25] 我 的 迈 克 尔 · 古 特 曼 和 阿 波 · 海 弗 亚 里 宁 。 Noise-Contrastiveestimation : A new estimation principle forunnormalized statistical models. 在 Proceedings of theThirteenthInternationalConferenceonArtificialIntelligence and Statistics,第297-304页,2010中。3[26] Raia Hadsell,Sumit Chopra,and Yann LeCun.通过学习不 变 映 射 进 行 降 维 。 在 Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,第2卷,第1735-1742页中。IEEE,2006年。3[27] Moritz Hardt,Eric Price,Nathan Srebro.监督学习中的机会平等神经信息处理系统的进展,第29卷,第3323-3331页,2016年。1[28] Kaiming H
下载后可阅读完整内容,剩余1页未读,立即下载
![7z](https://img-home.csdnimg.cn/images/20210720083312.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![application/x-rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)