没有合适的资源?快使用搜索试试~ 我知道了~
无监督学习中的伪属性去偏表示
16742伪属性去偏表示的无监督学习Seonguk Seo1Joon-Young Lee3Bohyung Han1,21ECE1 ASRI1,2 IPAI,首尔国立大学3Adobe Research@ snu.ac.krjolee@adobe.com摘要数据集偏差是机器学习中的一个关键挑战,因为它通常会由于虚假的解释捕获的非预期决策规则而虽然现有的作品经常处理这个问题的基础上,人类的监督,适当的注释的可用性是不切实际的,甚至是不现实的。为了更好地解决这个问题,我们提出了一个简单但有效的无监督去偏技术。具体来说,我们首先确定伪属性的基础上,即使没有明确的偏见属性监督的特征嵌入空间中进行聚类的结果然后,我们采用了一种新的分簇重加权方案来学习去偏表示;所提出的方法防止少数群体被忽略以最小化总损失,这对于最坏情况的推广是期望的。大量的实验表明,我们的方法在多个标准基准测试中表现出色,甚至达到了COM-1000标准。目标属性:头发颜色非金发金发对被监督的对应方的请求准确性源代码可以在我们的项目页面1上找到。总体准确度:无偏准确度:无偏精度(我们的):95.70%80.42%(-15.28%p)90.18%1. 介绍深度神经网络通过最大限度地减少训练数据集的平均损失而取得了令人印象深刻的性能。虽然我们通常采用经验风险最小化框架作为训练目标,但由于数据集偏差导致最坏情况下的泛化性能显着下降,因此有时会出现问题,如[2,12,18,37,38]所述。这是因为模型并不总是学习我们所期望的,相反,它从虚假的相关性中捕获了意想不到的决策规则。例如,在有色MNIST数据集[1,21,25]上,每个数字与特定颜色高度相关,网络通常学习图像中的颜色模式,而不是数字信息,同时忽略一些冲突的样本。这样一个非预期的规则在大多数训练样本上都能很好地工作,但在1https://github.com/skynbe/pseudo-attributes图1. CelebA数据集上的代表性例子,我们关注的问题。由于大多数金发的人是女性,头发颜色属性与性别属性之间存在虚假的相关性。因此,当被训练对头发颜色进行分类时,网络使用性别捕获了非预期的决策规则,导致最差组和无偏准确性较差,尽管其整体准确性很高。我们的模型旨在学习去偏表示,它提供了更好的最坏组和无偏精度,特别是当偏见信息不可用时。少数群体,这使得该模型无法推广到分布变化或鲁棒性约束的测试环境。图1说明了我们在本文中主要处理的问题。为了减轻偏差问题,从有偏差的数据集学习去偏差的表示已经受到机器学习社区越来越多的关注[1,3,14,21,26,28,34]。然而,大多数先前的工作依赖于显式监督或先验知识的假设下的pres-s,准确度:99.5%应计:41.1%准确度:95.6%准确度:85.6%偏倚属性:性别(未知)女性男性16743数据集偏差的影响。 这种设置是有问题的,因为在没有对模型和数据集进行充分分析的情况下,识别存在何种偏差以及哪些属性涉及虚假相关性请注意,即使有关于数据集偏差的信息,所有训练示例的相关注释也与监督方法相反,[25,30]通过基于失败的学习或基于子组的惩罚来解决更具挑战性的本文提出了一种简单而有效的无监督去偏技术,通过特征聚类和聚类重新加权。我们首先观察到,对于目标属性之外的某个属性,具有相同标签的示例在经过充分训练的模型的特征空间中往往具有相似的表示。在此基础上,我们估计偏见伪属性在一个非监督的方式从聚类结果在每个类。为了利用偏置伪属性来学习去偏置表示,我们为相应的聚类引入了一个重新加权方案,其中每个聚类具有取决于其大小和特定于任务的准确性的重要权重。该策略鼓励少数类主动参与优化过程,对提高最坏群泛化能力具有重要意义。尽管它的简单性,我们的方法被证明是有效的去偏没有任何监督的偏见信息;它甚至可以与监督去偏置方法相比较。我们工作的主要贡献概述如下:我们提出了一种简单但有效的无监督去偏方法,该方法不需要对属性之间的虚假相关性进行明确的我 们 引 入 了 一 种 技 术 来 学 习 debiatedrepresentations通过识别偏见伪属性通过聚类和重新加权相应的集群的基础上,他们的大小和目标损失。我们提供了广泛的实验结果,并取得了出色的性能,在无偏和最坏的组精度,这甚至是有监督的去偏方法的本文的其余部分组织如下。第二节对前人的研究进行了回顾.第3节提出了学习去偏表征的建议框架,第4节通过大量的实证分析证明了其有效性。我们在第5节结束我们的论文。2. 相关工作2.1. 计算机视觉任务真实世界的数据集不可避免地由于其不充分控制的收集过程而有偏差,因此,深度神经网络经常捕获真实标签和虚假相关标签之间的非预期的混淆。测量和减轻数据集或算法偏差带来的潜在风险已在各种计算机视觉任务中得到广泛研究[3,6,16,21,31,33,36]。例如,VQA模型经常利用答案出现和问题模式之间的统计规律,而忽略视觉信息[3,7]。语义分割模型通常利用场景上下文进行语义标签的像素级预测[6]。为了防止在有偏差的数据集中使用不期望的相关性,实验方法通常依赖于对偏差注释的人类监督,并提出了几个技术方向,如数据增强[13,39],模型集成[3,7]和统计正则化[1]。通过利用已知的特定于应用的偏差信息,这种监督去偏差技术已被应用于各种计算机视觉任务,包括视觉问题回答中数据集的单峰[3]、图像识别中的刻板印象纹理[13]、动作识别中的时间不变性[20]以及面部图像识别中的人口统计信息[26,35,39]。2.2. 处理配送班次分布偏移最近成为机器学习中的一个关键不同的分布。分布鲁棒优化(DRO)[2,9,11,17]已被提出来改善目标分布族上的最坏情况泛化性能,并提供了组DRO [26]及其变体[30]的理论背景。然而,DRO的目标通常会导致过于保守的模型,并导致不可见环境下的性能退化[10,15]。为了放松对测试分布的不确定性集的约束,一些方法提出了额外的假设。例如,数据集由具有共享属性的多个组组成,并且不确定性集由这些组的混合表示。该假设也用于鲁棒联邦学习[19,24],算法公平性[5,8,37]和域泛化[4,18,29]。我们的框架也利用了这一假设,但不依赖于组信息的监督。2.3. 通过基于损耗的重新加权来存在几种通用的去偏技术,通过基于监督环境[26]或无监督设置[25,30]下观察到的任务特定损失的样本重新加权。Group DRO [26]利用由偏置属性指定的组信息,旨在提高最差组泛化性能。另一方面,Namet al. [25]采用广义和标准交叉熵损失之间的差异来捕获样本重新加权的偏差对齐,而Sohoni等人···16744|∈A|̸|∈ A||∀∈A −{}|∈AA{}·θQ{||{\fnMicrosoftYaHei\fs20\2cHFFFFFF\b0}||·QΣ、DQQ∈QPΣD是D(P||Q)=,f.Q.al. [30]通过聚类估计子类标签,并利用该信息进行分布鲁棒优化,以减轻隐藏分层。尽管无监督方法在小型和人工数据集(如MNIST)中工作良好,但在包括CelebA在内的真实数据集中,其性能改善变得我们的框架也属于无监督的方法,不依赖于偏见信息来学习去偏见的表示。3. 方法本节介绍了我们通过偏置伪属性估计和样本重新加权的去偏置技术。3.1. 预赛Let an example x be associated with a set of m attributes:=a1,.,分枝我们的模型的目标是通过估计预期的因果关系p(a tx)来预测目标属性a t,这不涉及与 其 他 潜 在 属性 的 任 何 不 期 望 的 相 关性 , 即 p(atx)=p(atx,ai),ai霸王另一方面,伪相关表明两个属性ai,aj之间的强一致性条件entropyH(aiaj)接近于零,它们之间不存在因果关系。如果某个属性ab与目标属性at具有伪相关性并影响预测,则机器学习算法被认为是有偏差的,即,p(atx)=p(atx,ab).我们的方法通过在没有监督的情况下估计数据集中的组来执行去偏置,其中组由一对目标和偏置属性定义,例如,g=(at,ab).3.2. 观察即使没有属性监督,也会产生嵌入结果。我们的无监督去偏框架是基于通过聚类来识别偏置伪属性的能力。3.3. 制剂假设训练样本(x,y)是从某个分布P中提取的。给定损失函数θ()和模型参数θ,经验风险最小化(ERM)的目标是优化以下预期损失:minE(x,y)<$P<$P((x,y);θ)<$, (1)其中P是训练数据上的经验分布,其近似于真实分布P。尽管ERM通常工作得很好,但它倾向于忽略少数群体中与偏差属性冲突的示例,并隐含地假设训练和测试数据的基础分布的一致性。因此,这种方法往往会导致高无偏和最差组测试误差[9,26]。可以采用几种分布鲁棒优化(DRO)技术[2,9,17]来解决数据集偏差和分布偏移问题,并最大限度地提高无偏他们考虑一个特定的不确定性集合P,它接近于训练分布P,例如,P=Q:Df[Qp]δ,其中Df[]指示f-发散函数2。为了最大限度地减少最坏情况下的损失,不确定性分布集QP,DRO优化min,RQP(θ):=supE(x,y)<$Q((x,y));θ,.(二)如果偏置属性与目标属性高度相关,同时易于学习,则模型可以忽略少数冲突示例,并基于具有虚假相关性的偏置属性学习其决策规则,以最大化准确性[25,27]。为了防止这种不希望的情况,一个简单的组加权或重新加权策略[27]是有效的,而它们在现实场景中效果不佳,其中偏差信息在训练过程中是未知的。为了克服这一挑战,我们从直觉出发,分析了目标和偏置属性上的特征语义我们首先在CelebA数据集上训练一个基础模型来分类头发颜色,并在收敛足够数量的epoch(T= 100)后可视化示例我们选择性别作为偏见属性,但是不利用偏置属性的任何信息,然而,这一目标过于悲观,使模型考虑了不可信的最坏情况[10,15]。组分布鲁棒优化(称为组DRO [26])通过利用组信息的先验知识创建更现实的可能测试分布集。他们假设训练分布P是G个群的混合,Pg由下式给出:PG=c g P g,c∈G(3)g∈G其中G={1,.,G},且G是(G−1)维单形。那么不确定性集合Qp由这些组的所有可能混合物的集合定义,即,QPG={g∈Gcg Pg:c∈<$G}. 因为QPG 是一个单纯形,ing训练。事实证明,即使不使用偏置,培训期间的信息,从cer-在顶点处实现最优,从而最小化最差-QPG病例风险 相当于在这种情况下由毛发颜色和性别属性值组合给出的着色组,例如,(male,非金发)和(女性,金发),位于密切的fea-最小Rθ(θ):=最大Eg∈G(x,y)PgΣℓ((x,y);θ)Σ,.(四)真实空间这一观察结果意味着,可以通过利用2设P和Q是在一个空间上的概率分布,则f-DPfθG16745i=1Σ·∈K{··˜ ˜ΣB˜21endM我我 我算法一:使用偏置伪属性去偏置1要求:步长ηθ,动量m,训练步数T,批量大小B,聚类数K2 基本型号:3初始化θ对于t = 1,...,没做5样本(xi,y i),i = 1,., B;6θ<$θ−ηθ<$((xi,yi);θ);7端对于k = 1,...,K do9P k={(xn,yn)|h((xn,yn); θn)= k forall n};10N k= |P K|;11端部12目标型号:13初始化θ和ω k,其中k= 1,...,K对于t = 1,...,没做15ωk←(1−m)ωk+NkE(x,y)<$Pk[<$((x,y);θ)]16,k = 1,...,K;由充分优化的基本模型定义的嵌入空间,例如,对于100个时期,使用标准分类损失。我们假设每个聚类对应于一个偏置伪属性。在所有的集群中,我们专注于少数集群中的例子,特别是当他们有高的平均损失。在数据集偏差存在的情况下,一个常见的失败案例是由于忽略特定的子群体以最小化整体训练损失而引起的,并且少数群体由于其大小而易于被忽略。集群中的问题案例是那些包含许多偏差冲突的例子,具有高损失,从而导致较差的最坏情况错误。如果少数聚类主要由偏置对齐的样本组成,它们显然会达到高分类精度。因此,为了处理数据集偏差问题,我们应该考虑每个聚类的规模和平均难度(损失),而不像DRO [26]和George [30]组那样只关注平均损失。我们通过我们的重新加权方案来计算每个聚类的重要性权重,以训练目标模型,其由下式给出:17样本(xi,y i)CUP,i = 1,.,B;18αi=ωh((x,y);θi);我我ω=E(x,y)<$Pk[<$((x,y);θ)]kNk19αi=αi/βBαi;i=1E((x,y); θ)|h((x,y); θ)=ki=120θ ← θ − η θ Bα i<$i((xi,y i); θ);=(x,y)P,(6)1(h((x,y);θθ θ)=k)与组DRO设置不同,我们不知道每个训练示例的组分配。相反,我们使用的偏见伪属性信息,在特征嵌入空间中的任何聚类算法,定义组。请注意,聚类是使用由在无去偏的情况下训练的基础模型给出的表示来执行的,该去偏由θe参数化。我们的目标是减轻数据集偏差并最大限度地提高无偏准确性,我们需要公平地考虑所有组进行优化。为此,我们为第k个聚类分配适当的重要性权重ω k,其中k= 1,.,K,我们的框架的最终目标是通过最小化加权经验风险给出的,如下所示:min,RK(θ):=E(x,y)<$P<$ωh((x,y);θ<$)<$((x,y);θ)<$,,,(5)其中,θ和θ 表示最终和基础的参数models, respectively, h( , ) is a cluster membership func-tion, and 1( ) is an indicator function.注意,Pk表示第k个聚类的样本分布,Nk是第k个聚类中的样本数量,其中k ∈ K ={1,., K}。3.5.算法程序算法1给出了该框架的优化过程。我们首先训练一个基线网络(第4-7行),参数为θ。然后,我们根据从网络中提取的特征对所有训练样本进行聚类,以获得隶属度分布Pk和聚类大小Nk(第8-11行)。基于聚类分配,我们使用目标模型计算每个聚类的重要性权重ωk,由θ参数化,其中权重在每次迭代时通过指数移动平均更新(第15行)。最后,我们使用标准化的重要性-θ其中h((x,y);θ)表示示例(x,y)的聚类成员。接下来将讨论权重分配方法的细节每个样品的重量αi目标模型(第18-19行)。4. 实验4.1. 数据集一小批来训练3.4.带偏差伪属性的根据我们在3.2节中描述的观察,我们首先将每个类别中的训练示例聚类到特征上。Σ16746CelebA [22]是一个用于人脸图像识别的大规模人脸数据集,每个图像包含40个属性。在以前的作品[25,26]中,我们设置了头发的颜色,16747----表1.无偏倚和最差组导致CelebA数据集的测试分割中目标和偏倚属性之间存在虚假相关性。LfF表示LfF的变体[25],它只微调了训练基线模型的分类层,以便与我们的模型进行额外的比较。粗体和下划线字体分别表示比较方法中的第一和第二位。所有实验结果均为三次运行的平均值。无偏倚准确度(%)最差组准确度(%)目标偏置无监督监督集团DRO无监督监督集团DRO基地LFFLfFBPA(我们的)基地LFFLfFBPA(我们的)金发性别80.4259.4684.8990.1891.3941.0234.2357.9682.5487.86浓妆性别71.1956.3471.8573.7872.7017.3530.8123.8739.8421.36苍白的皮肤性别71.5078.6975.2390.0690.5536.6457.3843.2688.6087.68擦口红性别73.9053.7973.8478.2878.2631.3825.5231.9246.5246.08年轻性别78.1945.9979.5882.2782.4052.790.3457.7974.3376.29双下巴性别64.6165.4668.4782.9283.1921.3328.1928.2467.7872.94胖乎乎性别67.4260.0371.5683.8881.9024.307.6034.0972.3272.64戴帽性别93.5384.5694.8196.8096.8485.1269.0688.3194.9494.67瓜子脸性别62.7057.6462.3067.1865.4029.157.4036.0055.7856.84尖鼻子性别62.1042.2063.8368.9070.7125.801.0538.0452.4863.76直发性别70.2839.5772.8479.1877.0447.821.9558.5372.0966.10模糊性别73.0576.7077.5288.9387.0545.6843.8152.3584.1082.06狭眸性别63.1868.5367.7776.3976.7227.0131.8138.5373.2471.47拱形的眉毛性别69.7256.1771.8774.7778.3034.7626.2144.9754.3669.44眼袋性别69.4744.6171.8677.8475.8841.650.0649.1062.5563.34刘海性别89.0441.4189.0493.9494.4576.913.1882.3792.2192.12大嘴唇性别60.8746.7462.1566.5063.7030.8531.4438.5456.9947.55没有胡子性别73.1160.1273.1379.5877.8613.3011.9220.0040.0036.70发际线性别69.7270.5774.5884.9585.1535.6932.1045.5379.1179.12卷发性别73.1048.0074.5379.8979.6538.010.0645.2465.7466.79戴耳环性别72.1759.3574.1784.5783.5026.260.1032.9572.8175.24戴项链性别55.0458.6457.2168.9662.892.720.226.6741.9324.34平均性别72.6758.6574.8781.7480.8739.9121.9147.8869.8469.68表2. Waterbirds数据集的无偏倚和最差组结果无偏倚准确度(%)最差组准确度(%)表3.有色- MNIST数据集有效分割的无偏准确度(%)。目标偏置无监督监督集团DRO基线LfFBPA(我们的)数字颜色颜色数字74.48 85.15九十九点九一85.2699.8285.8898.96浓妆为目标属性。请注意,性别属性与这两个属性虚假相关,并在我们的实验中被用作最差组准确性评估的偏倚属性为了获得更全面的结果,我们还将其他32个属性视为目标属性。Waterbirds [26]是一个具有4,795个训练示例的合成数据集,通过结合来自Caltech-UCSDBirds-200-2011(CUB)数据集[32]的鸟类照片和地点数据集中的背景图像[40]。数据集中存在两个属性;一个是鸟的种类,水鸟,陆鸟,这是目标属性,另一个是背景地点,水,陆地。Colored-MNIST数据集[1,21,25]是MNIST的颜色属性扩展,其中每个数字与特定颜色高度相关。有60K个训练样本和10K个测试图像,其中偏置对齐样本3的比例为95%。我们遵循[25]中用于实验的方案。4.2. 实现细节对于CelebA和Waterbirds,我们使用ResNet-18作为骨干网络,该网络在ImageNet上进行了预训练我们3表示使用偏置属性(颜色)可以正确分类的样本目标偏置无监督监督集团DRO无监督监督集团DRO基地LFFLfFBPA(我们的)基地LFFLfFBPA(我们的)对象地方84.6385.4884.5787.0588.9962.3968.0261.6871.3980.82地方对象87.9985.7785.0588.4489.2073.3462.3760.0079.1685.2716748××使用Adam优化器训练基础和目标模型,学习率为110−4,批量大小为256,权重衰减率为0.01。对于有色MNIST数据集,我们采用了一个多层感知器,有三个隐藏层,每个层有100个隐藏单元。我们也使用相同的Adam优化器,学习率为1 10−3。我们为所有实验训练了100个epoch的模型,并使用余弦退火来衰减学习率[23]。对于聚类,我们从具有标准分类损失的单独训练的基础网络中提取特征,并在所有实验中执行K= 8的k均值聚类。第k个聚类的聚类权重ωk在每次迭代时通过指数移动平均来更新,其中动量m为0.3。本文中所报道的所有结果都是从三次运行的平均值获得的。4.3. 评价方案为了评估具有不平衡评估集的无偏准确度,我们测量由一对目标和偏差属性值定义的每个组g=(at,ab)我们最终报告了每组的平均准确度和所有组中的最差准确度,如[25]所示。4.4. 结果我们提出了我们的主要结果的标准基准,包括CelebA,水鸟,和有色MNIST。在本节的其余部分中,我们的方法用BPA表示,BPA代表偏置伪属性。在评估我们的框架之前,我们首先从属性之间的算法偏差方面对CelebA数据集进行了全面分析。CelebA数据集中共有40个属性。偏置属性被固定为性别,我们分析了它与目标候选人的属性的关系,其余的39个属性。如果由其与检验拆分中偏倚属性的组合给出的最小组包含至少10个统计稳定性示例4,则我们接受目标属性。我们假设,当基线模型的总体准确性和无偏准确性之间存在较大的性能差距时(例如,>5%点)。我们发现32个属性中有26个与性别有虚假的相关性,并报告了属性的结果。更详细的分析请参见我们的补充文件。表1给出了所提出的算法在CelebA数据集上的实验结果我们的模型在无偏和最差组准确度方面显著优于所有目标属性的基线和LfF [25]。请注意,我们的模型几乎可以与监督方法,组DRO [26],无外显偏差信息。另一方面,我们观察到使用LfF训练模型会使性能恶化,即使与基线相比也是如此。这是因为它固定了特征提取器并且仅在末端5训练其分类层。为了与LfF的稳定版本进行有意义的比较,我们首先对实验中使用的基线模型进行100个epoch的训练,然后仅使用LfF算法对分类层进行微调;这个修订在 本 节 的 其 余 部 分 中 , 该 版 本 被 称 为 LfF版 本 尽 管LfFMOSFET的性能稳定,但与组DRO和组DRO相比,通过去偏置的改进仍然有限。我们的方法我们的补充文件中提供了其他偏倚属性的其他实验结果我们还在水鸟数据集上评估了我们的模型,并在表2中给出了结果。如在CelebA数据集,我们的模型在无偏和最差组准确度方面实现了无监督方法中的最佳准确度,并呈现了与监督方法相当的结果[26]。我们在水鸟上的成功结果意味着所提出的方法对小规模数据集也是鲁棒的。有色MNIST表3表明,我们的模型在具有颜色偏差的数字分类中实现了一致的准确性。此外,在不存在算法偏差的情况下,颜色分类性能也与基线竞争,而监督方法在此设置下并4.5. 分析Results with no algorithmic bias We test our algorithmon unbiased datasets to make sure that it is dependable onthe cases without algorithmic bias.无偏设置由基线模型涉及其总体精度和无偏精度之间的边际差的配置来定义(例如,<5%点)。类似于表1,我们在CelebA中识别出目标属性的子集,其与性别没有虚假相关;存在32个属性中的6个。表4说明了6个目标属性的结果,其中我们的方法的准确性在4种方法中是最一致的这意味着我们的框架可以直接并入现有的识别模型,而不需要知道数据集偏差的存在。请注意,彩色MNIST上具有数字偏差的颜色分类或水鸟上具有对象偏差的背景位置分类也被限定为无偏设置,其中我们的模型给出了一致的结果。由于我们方法的无监督性质,我们可以简单地评估我们的模型,4移除的目标属性为5鬓角,山羊胡,胡子,打领带。5https://github.com/alinlab/LfF16749表4.CelebA数据集上具有目标属性的无偏和最差组准确度,其中不存在算法偏差无偏倚准确度(%)最差组准确度(%)表5.具有多个偏倚属性的无偏倚准确度(%)。对于每个目标,我们的模型只需要一个模型,而Group DRO [26]应该根据偏差集训练单独的模型。目标金发模糊偏见基线无监督LfFBPA(我们的)监督集团DRO基线无监督LfFBPA(我们的)监督集团DRO性别80.4284.8990.1891.3973.0576.7088.9387.05性别,浓妆83.6488.8291.9081.0975.3779.5589.0972.17性别,涂口红80.3484.1391.6385.9379.8883.2189.7979.88性别,年轻78.3981.2189.0587.9672.9777.7788.6685.39性别,无胡子79.5082.5189.9285.0178.9179.8484.0681.07性别,佩戴项链79.2581.0392.6292.2671.8078.0789.6085.33性别,大鼻子81.1884.1090.5890.8371.8977.1188.5787.11性别,微笑79.7582.9189.8591.7373.3178.0489.3287.87平均80.29±1.7183.53±2.6490.79±1.2987.83±4.1074.88±3.3279.08±2.0688.44±1.9882.69±5.50表6.我们的CelebA与金发和性别的目标和偏见属性的重要性加权方案 的消融结果,分别 在无偏和最差组 的准确性(%)。规模损失无偏倚Acc.最差组Acc.80.4241.02✓83.8657.44✓89.0876.55✓✓90.1882.54多偏差场景,其中数据集中存在多个偏差属性,而无需修改。表5列出了使用我们的方法和Group DRO [26]的多个偏倚属性的无偏倚结果,其中我们还报告了所有偏倚集的平均值和标准差以进行比较整体有效性和稳健性。我们还介绍了表1中介绍的LfF[25]的一个变体LfF的结果。当在多个偏置属性上训练时,Group DRO的准确性对偏置集敏感,而我们的方法对各种集都能获得稳定和优越的结果还要注意的是,我们的模型适用于任何偏差集,无需额外的微调,而监督方法应该为每个集合单独训练他们的模型。重要性加权的消融结果我们在CelebA数据集上进行消融实验来分析表7.无偏倚准确度(%),偏倚未指定设置。结果是一组无偏精度的平均值,每个其中,采用25个未指定属性中的一个与指定的偏置属性性别一起作为偏置属性来定义组。目标基线BPA(我们的)集团DRO金发79.1370.2677.5662.5667.8090.8061.7763.96±2.72±3.84±1.80±2.22±2.77±4.01±1.80±1.4290.1673.5281.3181.7182.3695.1166.6370.53±3.19±3.86±2.31±3.61±3.55±3.10±1.63±1.5290.82±2.7671.57±4.3380.56±2.0978.46±3.3779.91±3.4394.71±3.7665.35±1.4570.16±1.45浓妆年轻双下巴胖乎乎戴帽瓜子脸尖鼻子我们的集群加权策略的有效性。表6给出了分别仅取尺度Nk和平均损失E(x,y)<$Pk[<$((x,y);θ)]之计算等式中第k个聚类的ωk(六)、请注意,我们的烧蚀模型仅与损失因子密切相关[30]。表6还表明,结合这两个术语对学习去偏表示起着至关重要的作用,而比例因子显然更重要。为了验证在其他现实场景中的鲁棒性,我们测试了未指定的组偏移,目标偏置无监督监督集团DRO无监督监督集团DRO基地LFFLfFBPA(我们的)基地LFFLfFBPA(我们的)吸引力性别76.0530.1875.9777.9078.3563.616.0964.7865.2066.30微笑性别91.6674.6291.2092.0891.6488.4960.0988.6590.0688.48张着嘴性别93.1081.8592.9693.4593.6491.5266.9292.4492.2791.69高颧骨性别83.4448.4083.7084.9384.5270.497.9273.5678.5678.37眼镜性别98.2085.4798.3898.3998.6596.2476.8996.8597.2297.64黑发性别84.9261.0085.1986.5786.7675.4722.0475.6981.2880.67平均性别87.9063.5987.9288.8988.9380.9739.5182.2984.1083.8616750908070602 4 6 8 10聚类数(K)图2.在CelebA数据集上对我们框架中的聚类数进行敏感性分析。其中在训练期间没有完全提供测试时的组信息。训练期间指定的偏差属性(由组DRO利用)固定为性别。为了评估在这种情况下的性能,我们测量了一组无偏准确度,这些准确度对应于指定偏差属性、性别和除目标属性6之外的25个未指定偏差属性中的每一个的组合。请注意,未指定的偏差属性不会在训练期间引入,而是用于在测试时定义组。表7清楚地表明,我们的模型在偏倚未指定的设置中优于DRO组,其中由于空间限制,我们仅报告了无偏倚准确度集的平均值和标准差。这意味着,尽管组DRO在指定组分布的单纯形内很好地处理组移位,但它遭受未指定组移位的最坏情况泛化。请注意,所提出的方法没有这个问题,因为它不使用任何关于偏差的信息进行训练。聚类数敏感性分析在CelebA数据集上,对聚类的组数进行消融研究,在特征嵌入空间上进行聚类,得到偏置伪属性。我们将性别设置为偏置属性,并评估几个目标属性的无偏精度。图2显示结果稳定当K≥4时,精度达到饱和。特征可视化图3展示了基线模型(左)和我们的(右)在CelebA数据集上针对金发属性分类的实例嵌入的t-SNE结果,其中我们仅可视化阴性(金发=假)示例以实现有效的可视化。蓝色和橙色分别表示偏置属性性别的值(女性和男性)。我们观察到,我们的模型有助于混合在同一类中的不同群体的例子,这是理想的去偏置。6如第4.4节所述,存在26个(39个中的)有效属性。图3.使用基线(左)和我们的(右)训练的特征嵌入的t-SNE图 对 头 发 颜 色 进 行 分 类 。 We visualize the distribution ofsamples that have the same target value (blond hair = false).蓝色和橙色分别表示不同的性别值,女性和男性。我们的框架有助于混合样本,其中有相同的目标,但不同的偏见属性值。5. 结论提出了一种通用的基于伪属性的无监督去偏框架。我们观察到,从相同组中采样的示例紧密地位于特征嵌入空间中。基于我们的实验结果,我们认为即使在没有属性监督的情况下,也可以利用嵌入结果来识别伪属性 受此启发,我们介绍了一种新的基于聚类的加权策略,用于学习去偏表示。我们证明了我们的方法在多个标准基准上的有效性我们还在许多现实场景中对我们的框架进行了彻底的分析,在这些场景中,我们的模型始终提供了大量的收益。潜在的社会影响和局限性机器学习模型通常无条件地关注性能改进。因此,它经常暴露于由数据集和/或算法偏差引起的风险,需要仔细解决以提高模型的可靠性和鲁棒性。从这个角度来看,这项研究有助于产生积极的社会影响。虽然所提出的算法对偏差识别是有效的,但由于未探索的偏差类型,可能存在盲点。因此,我们认为,在没有先验知识的情况下识别隐藏的和不可观察的偏差是一个很有前途的研究方向。鸣 谢 本 工 作 部 分 得 到 了 IITP 资 助 [2021-0-02068 ,Artificial Intelligence In-Practice Hub; 2021-0-01343,人工智能研究生院计划(首尔国立大学)]和韩国国家研究基金会(NRF)资助[2022 R1 A2 C3012210],由韩国 政 府 ( MSIT ) 和 三 星 电 子 公 司 资 助 , Ltd.[IO210917- 08957-01]。金发浓密的化妆苍白的皮肤穿着口红无偏准确度(%)16751引用[1] Hyojin Bahng、Sanghyuk Chun、Sangdoo Yun、JaegulChoo和Seong Joon Oh。用有偏表示学习去偏表示在ICML,2020。一、二、五[2] AharonBen-Tal 、 DickDenHertog 、 AnjaDeWaegenaere、Bertrand Melenberg和Gijs Rennen。 不确定概率影响下优化问题的鲁棒解Management Science,59(2):341-357,2013. 一、二、三[3] Remi Cadene,Corentin Dancette,Matthieu Cord,DeviParikh,et al. Rubi:Reducing unimodal biases for visualquestion answering. NeurIPS,2019。一、二[4] 法比奥·M·卡卢奇、安东尼奥·德诺森特、西尔维亚·布奇、巴尔巴拉·卡普托和塔蒂亚娜·托马西。解决拼图游戏的领域泛化。在CVPR,2019年。2[5] 亚历山德拉·乔德乔娃和亚伦·罗斯 机器学习中公平性的前三层。arXiv预印本arXiv:1810.08810,2018。2[6] Sanghyeok Chu,Dongwan Kim,and Bohyung Han.学习- ING去偏见和解开表示语义分割。在NeurIPS,2021年。2[7] Christopher Clark,Mark Yatskar,and Luke Zettlemoyer.不要走捷径:用于避免已知数据集偏差的基于集成的方法。在EMNLP,2019年。2[8] Michele Donini,Luca Oneto,Shai Ben-David,John SShawe-Taylor,and Massimiliano Pontil.公平约束下的经验风险最小在NIPS,2018年。2[9] John Duchi, Peter Glynn, and Hongseok Namkoong.稳健优化的统计学:广义经验似然法。arXiv预印本arXiv:1610.03425,2016。二、三[10] John Duchi , Tatsunori Hashimoto , and HongseokNamkoong.潜在协变量混合的分布鲁棒损失。arXiv预印本arXiv:2007.13982,2020。二、三[11] Rui Gao,Xi Chen,and Anton J Kleywegt.统计学习中的WassersteinarXiv预印本arXiv:1712.06050,2017年。2[12] RobertGeirhos,J?rn-HenrikJacobsen,ClaudioMichaelis , Richard Zemel , Wieland Brendel ,Matthias Bethge,and Fe- lix A Wichmann.深度神经网络中的快捷学习arXiv预印本arXiv:2004.07780,2020。1[13] Robert Geirhos,Patricia Rubisch,Claudio Michaelis,Matthias Bethge , Felix A Wichmann , and WielandBrendel. ima
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- NIST REFPROP问题反馈与解决方案存储库
- 掌握LeetCode习题的系统开源答案
- ctop:实现汉字按首字母拼音分类排序的PHP工具
- 微信小程序课程学习——投资融资类产品说明
- Matlab犯罪模拟器开发:探索《当蛮力失败》犯罪惩罚模型
- Java网上招聘系统实战项目源码及部署教程
- OneSky APIPHP5库:PHP5.1及以上版本的API集成
- 实时监控MySQL导入进度的bash脚本技巧
- 使用MATLAB开发交流电压脉冲生成控制系统
- ESP32安全OTA更新:原生API与WebSocket加密传输
- Sonic-Sharp: 基于《刺猬索尼克》的开源C#游戏引擎
- Java文章发布系统源码及部署教程
- CQUPT Python课程代码资源完整分享
- 易语言实现获取目录尺寸的Scripting.FileSystemObject对象方法
- Excel宾果卡生成器:自定义和打印多张卡片
- 使用HALCON实现图像二维码自动读取与解码
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功