没有合适的资源?快使用搜索试试~ 我知道了~
基于组感知的公平分类:解决机器学习中的歧视问题和公平性权衡
+v:mala2255获取更多论文基于组感知的公平分类Taeuk jang1,Pengyi Shi2,Xiaoqian Wang1*1普渡大学电气与计算机工程学院,西拉斐特,美国,479072普渡大学克兰纳特管理学院,西拉法叶,美国,47907{jang141,shi178,joywang} @ purdue.edu摘要随着机器学习在不同领域的应用不断扩展和多样化,其公平性问题越来越受到人们的关注。为了减轻不同人口统计群体之间的歧视性模型误差,我们引入了一种新的后处理方法,通过群体感知阈值自适应来优化多个公平性约束。我们建议通过优化从分类模型输出的概率分布估计的混淆概率来学习每个人口统计组的自适应分类阈值。由于我们只需要模型输出的估计概率分布而不是分类模型结构,因此我们的后处理模型可以应用于广泛的分类模型,并以模型不可知的方式提高公平性并确保隐私。这甚至允许我们对现有的公平性方法进行后处理,以进一步改善准确性和公平性之间的权衡。此外,我们的模型具有较低的计算成本。我们提供了严格的理论分析,我们的优化算法的收敛性和我们的方法的准确性和公平性之间的权衡。我们的方法理论上使一个更好的上界在附近的最优性比现有的方法在相同的条件下。实验结果表明,我们的方法优于国家的最先进的方法,并获得的结果是最接近的理论准确性-公平性权衡边界。介绍机器学习正在扩大其在各个领域的影响,包括信用分析,工作筛选等。因此,公平性在机器学习中的重要性正在显现。然而,最近的模型已经被发现是-有不同的人口群体在有利的预测。例如,已经发现,目前用于帮助审前释放决定的犯罪风险评估软件COM- PAS在不同种族之间存在偏见(Dressel和Farid2018)。具体来说,黑人从模型中预测的风险分数高于具有相似特征的白人。因此,歧视确实存在,解决歧视问题至关重要,因为歧视的直接和潜在影响正在急剧增加。然而,获得公平性并不是一个微不足道的问题,因为数据集本身在积累人工智能时会有偏差。*通讯作者。版权所有© 2022,作者。正式的简单地修改数据中的敏感特征(如种族、性别)并不能解决偏见,因为存在由特征相关性引起的间接歧视(Pedreshi,Ruggieri和Turini2008),这意味着敏感信息可以从其他特征中推断出来。为了从不同的角度减轻歧视,已经提出了各种群体当量的定量测量(Hardt等人(2016),Kleinberg等人(2016),Choulde-chova等人(2017))。已经证明,追求公平性需要在公平性和准确性之间进行权衡(Liu et al.(2019), Kim et al.(2020))。此外,Pleiss et al.(2017)研究了无法同时满足的公平概念之间的权衡。因此,最近的作品(Feldman et al.( 2015 ) , Zhang et al. ( 2018 ) ,Hardt et al.(2016))通常以一定的公平概念为目标。然而,这些方法缺乏灵活性,即,目标公平性不能根据需要进行调整。如果公平性约束在某些情况下发生变化,传统的公平性模型需要从头开始重新训练,这在计算上要求很高,有时由于模型设置而不适用。为了克服这些限制,我们提出了一种新的后处理方法,以模型不可知的方式提高公平性,即,我们只需要未知模型的预测。GSTAR(Group Specific ThresholdAdaptation for faIR classification)模型在分类任务中为每个人口统计组GSTAR在给定一个已有的分类模型的情况下,对模型输出的概率分布进行近似,并利用混淆矩阵对准确性和公平性进行量化w.r.t.组感知分类阈值。这允许我们:1)防止增加额外的复杂性或恶化分类器的训练过程的稳定性; 2)将不同的公平性概念集成到一个统一的目标函数中; 3)容易地使一个预先训练的模型适应其他公平性约束。我们总结我们的贡献,本文如下:1. 我们提出了一种新的后处理方法,命名为GSTAR,它可以学习组感知阈值,以优化分类的公平性和准确性的权衡我们的经验表明,GSTAR优于国家的最先进的方法。2. 通过GSTAR,我们可以同时优化多个arXiv:2111.04271v1 [cs.LG] 2021年11+v:mala2255获取更多论文∈∈联系我们联系我们具有低计算成本的三重公平性约束。GSTAR不需要对数据进行多次迭代,相反,它在训练中最多需要一遍数据以进行快速计算。3. 我们进行了广泛的严格的理论分析,我们的方法,在收敛性分析和公平性准确性权衡。我们从理论上证明了比现有方法更严格4. 我们推导出我们的模型的公平性-准确性权衡的帕累托边界,上下文的公平分类的质量。相关作品为了实现群体公平,即量化不同敏感群体之间的区分,引入了不同的公平概念。平均赔率(Hardt et al.(2016))强制不同人口统计群体之间的真阳性率和假阳性率相等Pleiss等人(2017)放宽了均衡赔率以满足校准。人口统计学平价或不同的影响(Barocas和Selbst2016)表明,如果模型预测独立于受保护的属性,则模型是无偏的。在不同的公平性方法中,后处理技术提出通过修改给定分类器的输出来提高公平性。Hardt et al.(2016)建议通过约束模型输出来确保均衡的赔率。Kim等人(2020)利用混淆矩阵并提出最小二乘精度-公平性优化问题。Kamiran等人(2012年)建议给予无特权群体有利的结果,给予特权群体不利的结果比Hardt等人(2016)更接近最优,因为我们直接在ROC曲线上操作,而不是Hardt等人(2016)中的线性交叉点。此外,GSTAR通过给定模型的预测置信度来校正预测标签,而不是随机翻转输出以实现均衡的几率 , 这 在 后 处 理 中 更 可 靠 。 FACT ( Kim et al.(2020))利用来自待后处理的分类器的单个点(静态)作为参考,其未完全利用分类器进行后处理。相比之下,通过近似连续预测logits的分布,GSTAR模型能够实现比Kim等人(2020)更大的可行区域,具有更好的公平性-准确性权衡。我们通过理论和实证结果验证了这种权衡的改善。值得注意的是,这些相关的方法可以被认为是GSTAR的特殊情况。GSTAR公平分类动机考虑具有二进制敏感特征的二进制分类问题,使得敏感特征A 0,1和标签Y 0,1。通常,对于给定数据X,二进制分类模型输出具有类别标签概率R(X)=σ(h(X))[0,1]的未归一化的logit h(X)R,其中σ是激活函数(例如, sigmoid函数)。 不需要在分类模型中计算R,例如,支持向量机直接使用logith(X)的正/负来确定分类结果。对于传统模型,我们使用截止阈值θh= 0为当预测的置信度在一定范围内时。然而,这样的静态置信窗口保持相同的可靠性。h(X)(即, θ R=σ(0)= 0。R(X)=5),这样,预测的标签由不受人口统计学群体的影响,Y=I{h(X)≥θh}。在接下来的时间里,除非-搜索,因此效率较低。阈值调整(也称为阈值化)被引入以改进静态阈值的性能。在文献中,Menon等人(2018)证明了预测概率函数的实例依赖阈值是成本敏感公平性测量中的最佳分类器。此外,当考虑 到即时效用时,Corbett-Davies et al.(2017)表明,最佳算法是从由组统计确定的组特定阈值实现的然而,据我们所知,阈值调整方法尚未得到深入研究,既不包括广泛的组公平性度量,也没有描述一个明确的方法来实现阈值。当我们对模型施加公平性约束时,存在公平性和准确 性 之 间 的 权 衡 。 最 近 的 研 究 -ies(Chouldechova2017;Zhaoand Gordon2019)证明,针对此类公平概念的模型符合不同敏感群体之间联合误差的信息理论下限因此,我们的工作提出了一个实用的上限的最佳可实现的精度给定的公平性约束。在这里,我们的工作与后处理方法最相关(Hardt etal.(2016),Kim et al.(2020))。然而,我们的和他们的在几个方面不同。首先,我们从理论上证明了GSTAR实现了更好的上界,另外,我们用θ来表示logith上的阈值θh,因为它适用于更广泛的分类模型,而相应的标签概率阈值θR可以很容易地从logith上的阈值推导出来。传统模型对不同的人口统计学群体使用相同的截止阈值θ。然而,由于logitsh在不同人口统计组中的分布可能不同,因此使用相同的阈值θ会带来偏倚的分类。在图1中,我们展示了使用ResNet50对CelebA数据集进行图像分类的真实示例(Heet al. 2016),以表明分类阈值的默认设置影响分类的准确性和公平性。目标是预测一个人的形象是否有吸引力或不,并将敏感属性视为性别。这可以推广到不同的敏感属性,例如,年龄或种族(Lokhande et al. 2020年)。logith的分布在两个性别组之间有明显的差异。如果我们使用统一的分类阈值θ1=θ0= 0,自然会带来两个性别组之间真阳性率和真阴性率的差异,从而表现为有偏分类。相反,我们观察到,从GSTAR(θ1<$>θ1,θ0<$θ0)能适应这种离散性,在两个人口群体之间进行协调,公平和准确。+v:mala2255获取更多论文}{LLLLL公平LΣ{}ayay联系我们N每11N11N00N00110011Σ2其中f ya(x)是子集Y=y,A=a中 输 出 l o g i t h 的分 布 的 估 计 概 率 密 度 函 数 。然后,我们制定了公平性约束的分类问题的目标是最小化分类误差的最小二乘优化问题。我们将我们的目标函数表示为(θ),它由用混淆矩阵的条目表示的每比特损失(θ)和公平性损失(θ)换句话说,我们的目标是最小化目标函数(θ),如下所示:L(θ)=Lper(θ)+λLfair(θ), (2)其中λ是确定在优化中强制多少公平的超参数性能误差Lper(θ)可以写为:图1:来自logistic回归的logith分布直方图CelebA数据的回归,其中θ是分配L(θ)=. n01FP(θ)+n11FN(θ)基于h的预测标签。顶部和底部的图是阳性样本(Y = 1,有吸引力)和阴性样本+n00FP(θ)+n10FN(θ)<$2。(Y= 0,无吸引力)。条形图表示logith的敏感群体,和曲线估计proba-至于L公平 (θ),它可以被公式化为满足任何公平性-敏感群体的logith的能力密度函数如图例所示θ= 0(黑色虚线)是默认分类阈值。默认阈值会导致有偏差的预测由于在不同的敏感性组中的不同logith分布,向非特权组(A=0)移动。(θ0,θ1)(彩色虚线)是GSTAR实现的每个敏感组的组感知阈值。可以用混淆矩阵表示的rics例如,当我们施加EOp( TP1= TP0 ) 和 预 测 相 等 ( PE ) ( FP1= FP0 ) 时(Chouldechova2017),我们可以通过对每个约束的最小二乘形式求和来获得相应的 公 平(θ)此外,满足EOp和PP相当于满足均衡赔率(EOd)(Hardt,Price和Srebro2016),这可以在我们的L公平中公式化为EOdEOpPP组感知分类控制L公平(θ)=L公平(θ)+L公平(θ)=. TP(θ)−TP(θ)<$2+。FP(θ)−(三).给定一个现有的分类模型和一个敏感性指标a,我们可以表示真阳性率(TPa)、假阳性率(FP)、真阴性率(TN)和假阴性率注意,较低的L公平值指示较公平的阈值。当LEOD(θ)= 0时,我们可以解释为θ满足一个完美的公平。与(3)类似,我们可以强制执行多个混淆矩阵中的比率(FNa)。大多数公平概念可以用混淆矩阵中的条目来表示。例如,平等机会(EOp)( Hardt et al. ( 2016 ) ) 要 求 TP0=TP1 , 人 口 均 等(DP)(Barocasand Selbst2016)要求如果需要的话,可以通过对具有不同权重常数λ的每个度量的最小二乘求和来计算公平性约束此外,值得注意的是,与通过混淆张量强制公平的FACT(Kim et al.(2020))TP1 n11+ FP1n01N1=TP0n10+FP0n00,N0我们用公平(θ)表示的公平性代表了公平性度量的直接概念,并改进了使我们能够实现更好性能和帕累托边界的度量其中,nya表示子集Y=y,A=a,N= a中的样本的数量,n表示Y=y和N=y中的样本数,其中ya是样本总数。考虑组感知分类阈值θ=如图2所示。例如,FACT将多个约束集成为加权和,其中权重是每个类别中的样本数量。在该表达式中,两个公平性标准之间的不平衡将随着数据中的不平衡程度的增加而增加(θ1,θ0)T,其中θa是sen的分类阈值相比之下,我们的公式表达的约束条件的确切概念,每个指标是不偏的统计-活性基团A=a.我们可以用公式表示混淆矩阵w.r.t.θ如下:θa我们观察到改进的帕累托边界,如图2所示。GSTAR的优化TPa(θa)<$1−FPa(θa)<$1−f1a(x)dx,FNa(θa)<$1−TPa(θa)−∞θaf0a(x)dx,TNa(θa)<$1− FPa(θa)−∞(一)我们在(2)中的GSTAR目标属于非线性最小二乘问题(NLSP)族(Gratton,Lawless,andNichols 2007)。为了优化目标(2)并找到∫FP0( θ0)+v:mala2255获取更多论文EOp2.阿罗勒θa联系我们关于我们一1一一一r(θ)<$ r(θk)+ri(θ)=fJ)J f(θ我我θa一10110阈 值 θ , 我 们 采 用 Gaussian-Netwon 优 化 方 法(Gratton,Lawless和Nichols 2007)。 这里我们以EOp约束为例来展示交替优化步骤,则Lfair(θ)可以写为Lfair(θ)=(TP 1(θ1)-TP 0(θ0))。(四)用高斯-牛顿法求解NLSP时,首先利用泰勒展开将非线性优化问题转化为线性最小二乘问题。也就是说,参数-理论分析群间FPR/FNR间隙的上界我们首先陈述定理1和定理2所需的假设。假设1。对于任何给定的分类器h及其导出的PDF fya和CDF Fya,我们假设以下成立:• PDF fya( x)是一致有界的,即,有一个fya(x)=m ax xfya(x).• 逆CDF F−1( x)是Lipschitz连续的,以迭代方式计算参数值,Lipschitz常数雅是的。θa<$θk+1=θk+ θa,(5)• 两组之间的CDF差异是一致的。形式上有界的,即,在第k次迭代中,={|≤ u y,n x.| ≤ u y, ∀x.定理1. 对于任何给定的分类器,满足Assump-我们将目标函数改写为实向量函数r(θ)=r1(θ),r2(θ)=(per,λ fair).我们将损失函数中的每个分量线性化为一阶泰勒多项式展开式,1和任何给定的满足完美EOp条件的阈值对(θ0,θ1),两组假阳性率之间的差距上界为克|ϵ1|=. FP0(θ0)− FP1(θ1)。 ≤ u0+ C1u1,(9)一其中θk=(θk,θk)。把这个线性化的方程代入定理2. 对于任何给定的分类器,满足Assump-1,2,3,4,5,6,7,8,9,10, 11,12,13,14,15,16,17,190.1 是完美的PE条件,目标函数,我们得到通常的最小二乘问题。然后,可以获得最优解为:T−1Tk两组的利率上限为|=.|=. FN0(θ0)− FN1(θ1)。 ≤ u1+ C0u0,(10)其中C0.M00 =f11其中J=Jia,其中Jia=ri(θ)是雅可比矩阵。雅可比矩阵的每一项都可以用fya的pdf和cdf的线性组合来表示,i,a,y0,1。我们可以完成交替优化,θτ=θτ−1+πτ , θτ=θτ−1+ πτ 。(八)定理1和2描述了当假阴性/阳性率差为0时两组之间假阳性/阴性率差的上界。同时,在完全公平(EOp或EP)条件下,给出了由于不同分组的两个不同阈值而导致的额外精度损失的上界。0 0 0 1 1 1值得注意的是,在每一次迭代中,我们导出了最佳的更新步长α,这消除了调整超准确性和公平性之间的权衡现在我们证明一个定理来表征ac之间的权衡迭代算法中的参数(如学习率)。具体优化过程见补充说明。Cura cy和Fairness。设θa为扰动值θa,= argminθaLper(θa),其GSTAR模型的交替优化效率较低,计算成本我们最多取一遍数据来学习估计的概率密度函数fya|≤γ / 2,|≤γ/2,|≤ γ / 2,|≤γ/2,(十一)在(1)中(我们甚至不需要遍历数据,如果参数(如高斯分布中的均值和方差)对于某个扰动系数γ。 然后,对于最优扰动版本θ=argmin L(θ),我们陈述了定理-估计的概率密度函数fya可以是vided)。θ的交替优化一rem下面:θa每股a是有效的,因为我们只需要你。因此,每次更新都需要一个恒定的时间。总的来说,GSTAR的时间复杂度是O(n+T),其中n是样本数,T是交替优化的迭代次数定理3. 在假设1和条件(11)下,Lper(θ1)−Lper(θ1)≤Cγ,哪里此外,如果需要统一阈值(Corbett-C=2Lr1+rf=0 1M11+n00。fM+′1M11+n10(六)其中CM.=−(J),(7)+v:mala2255获取更多论文Davies等人,2017年),即,θ1=θ0,优化算法也适用,并且我们在(2 )中只有一个标量变量。202N00 102N当我们有一个统一的阈值时,我们在测试阶段不需要敏感的信息,我们可以遵守比群体感知阈值更严格的隐私规则。然而,我们不得不牺牲公平性和准确性,因为阈值不太灵活。并且′1=max′1是1的导数的最大值。定理3量化了准确性损失的降低(即,准确性的提高)当我们允许两组之间真阳性率的差距时(即,从完美EOp条件松弛)。+v:mala2255获取更多论文∈表示二阶项r( θ)<$2 r( θ).然后作为我0.84GSTAR算法的收敛性分析我们的目标函数和优化求解算法都属于Gauss-Newton算法族。根据下面的假设A1和A2,0.8250.8000.775• A1.存在θ使得J(θ)r(θ)= 0,∗T∗ ∗0.750• A2. 在θ处的雅可比矩阵具有满秩,我们陈述以下收敛定理定理4.假设估计的密度函数f(·)0.7250.7000.67510010−110−210−310−410−510−6满足假设A1和A2。此外,f(·)满足EOd(越小越好)||Q(θ k)(J TJ)−1(θ k)||2≤ η(a) CelebA数据集对于某个常数η∈[0,1),对e是一个多项式k,当eQ(θ)只要初始解足够接近真实解,0.86最优的||θ0− θ∗||2≤ θ,高斯-牛顿序列0.82迭代{θk}收敛到θk。0.80GSTAR的近最优性根据Hardt et al.(2016)的定理5.6的证明,我们为我们的GSTAR模型提供了以下近最优性定理。0.780.7610010−110−210−310−410−510−6定理5. 对于有界损失函数l和给定的估计密度函数h(x),设R[0,1]是从密度h(x)导出的随机变量。然后,0.80EOd(越小越好)(b) 成人数据集利用该方法从(R_(?h,A))导出了概率分布函数Y_(?h0.75在我们的论文中,可以在以下意义上实现接近最优:E [l(Yh,Y)]≤E [l(Yh,Y)]+2dK(Rh,Rh).这里,Y是真实标签,Y是从贝叶斯最优回归量R导出的最优均衡赔率预测值,Hardt et al.(Hardt,Price和Srebro2016),以及0.700.650.600.550.5010010−110−210−310−410−510−6dK(Rh,R)是条件Kolmogo vdistance e。定理5证明了GSTAR比Hardt等人有更严格的近似最优性界2016年,在相同的条件下。定理1.5的证明见附录。实验在本节中,我们在四个著名的公平性数据集上验证了GSTAR模型,并与其他最先进的方法进行了比较0.80.70.60.50.40.3EOd(越小越好)(c) Compas数据集实验装置10010−110−210−310−410−510−6在实验中,我们比较了多种公平方法。为了清楚地证明结果,我们在图2和图4中对每种比较方法使用不同形 状 的 标 记 。 比 较 方 法 包 括 : FGP ( Tan et al.(2020))、 FACT(Kim et al.(2020))、 FACT(Feld-man et al.(2015))、 AdvDeb(Zhang et al.( 2018 ) ) 、 CEOPost ( Pleiss et al. ( 2017 ) ) 、Eq.Odds(Hardt et al.(2016))、LAFTR(Madras etal.(2018))和基线:对于CelebA数据集,我们使用ResNet50(Heet al. 2016)作为参考,并对所有其他数据集进行逻辑回归。我们在评估中选择广泛使用的公平性指标,包括:平等机会差(EOp)和均衡优势差(EOd)(Hardt etal.(2016年);1-EOd(越小越好)(d) 德国数据集中图2:均衡赔率的帕累托边界,以显示在不同公平性约束下最佳可实现精度的上界。边界下的右上区域是理想的。对于具有不同公平性目标的GSTAR的三个变体,GSTAR(stars)最接近帕累托边界,其指示最佳权衡。我们在四个公平数据集上评估了这些方法:CelebA数 据 集 ( Liuetal.2015 ) , 成 人 数 据 集( Kohavi1996 ) , COMPAS1 数 据 集 和 德 国 数 据 集(Dua和不同影响(1-DIMP)(Barocas et al.(2016));bal-精度差(BD)。1https://github.com/propublica/compas-analysisFACT ParetoGSTAR ParetoGSTAR(DP)GSTAR(EOd)GSTAR(DP+EOd)FACTEq.OddsCEOPostLAFTR基线FACT ParetoGSTAR ParetoGSTAR(DP)GSTAR(EOd)GSTAR(DP+EOd)FACTAdvDebEq.OddsCEOPostLAFTR基线FGPFACT ParetoGSTAR ParetoGSTAR(DP)GSTAR(EOd)GSTAR(DP+EOd)FACTAdvDebEq.OddsCEOPostLAFTR基线FGP精度FACT ParetoGSTAR ParetoGSTAR(DP)GSTAR(EOd)GSTAR(DP+EOd)FACTAdvDebEq.OddsCEOPostLAFTR基线FGP精度精度精度我我+v:mala2255获取更多论文偏置1.601.40好0.850.82偏置0.700.60好0.860.841.200.800.500.821.000.800.600.780.750.720.400.300.800.780.760.400.200.700.680.200.100.740.72公平0B。a65d公平坏(a)CelebA数据集(b)成人数据集偏置0.600.500.400.300.200.10公平G0。6o8od0.670.660.650.640.630.620.610.60坏偏置0.800.700.600.500.400.300.200.10公平好0.800.750.700.650.600.550.50坏(c) Compas Dataset(d)German Dataset图3:公平性和绩效指标的评估。条形图表示每个模型的公平性度量。线图指示每个模型的性能度量较低的公平值(左y轴)和较高的性能值(右y轴)分别显示更好的公平性和性能我们考虑了GSTAR模型的三种变体(DP,EOd,DP+EOd)。0.680.840.820.800.780.660.640.620.600.580.560.540.7610010−110−210−310−410−510−60.5210010−110−210−310−410−510−6EOd(越小越好)(a) 成人数据集EOd(越小越好)(b) Compas数据集图4:现有公平模型(蓝色点)上的后处理(洋红色点)图示。鉴于每个模型的输出,我们有效地提高了现有的公平性模型与GSTAR优化组感知阈值Graff2019)。 比较方法、评价指标和数据集的更多详细信息见补充材料。性能和公平性-准确性权衡在这一小节中,我们将GSTAR的性能评估与其他最先进的方法进行比较。我们考虑帕累托边界来可视化公平性和准确性之间的权衡,以证明性能的度量。在图2中,我们绘制了帕累托边界,这是准确性-公平性权衡的上限,位于边界下的右上区域,其对应于较高的准确性值和较低的公平性差异值。在给定相同公平性约束的情况下,我们实现了比FACT更好的边界(Kim et al.(2020年),因为我们同样重视人口统计数据,并有一个更好的可行区域。为了得到我们的结果(星点),我们首先从基线模型的输出估计logit分布,然后通过更新得到具有相应公平性度量w.r.t. 目标函数(2)。在这里,我们有三种对GSTAR施加的公平性组合:人口统计均等(DP)、均衡赔率(EOd)以及同时具有这两种约束EOPEOdBD1-DIMPBA ACCEOPEOdBD1-DIMPBA ACCEOPEOdBD1-DIMPBA ACCEOPEOdBD1-DIMPBA ACC事实帕累托GSTAR ParetoAdvDebGSTAR-AdvDebCEOPostGSTAR-CEOPostGSTAR-R2Eq.OddsGSTAR-Eq.Odd FGPGSTAR-FGP性能事实帕累托GSTAR ParetoAdvDebGSTAR-AdvDebCEOPostGSTAR-CEOPostGSTAR-R2Eq.OddsGSTAR-Eq.Odd FGPGSTAR-FGP性能性能性能精度公平公平公平精度公平+v:mala2255获取更多论文−(DP+EOd)。通过在简单基线上进行后处理,我们实现了显著更好的公平性,而准确性很小或没有。在所有数据集上,GSATR在公平性和准确性方面都比其他最先进的方法有竞争力或更好的结果。例 如 , 我 们 得 到 θ∈Od= ( 0. 640 ,0 。 627 )CelebA数据集的T这表明我们对特权组有一个更高的阈值,对无特权群体来自GSTAR的这种最佳阈值允许来自特权组的更多样本被正确地预测为不具有吸引力,这将补偿原 始模型的 区分换 句话说, 这提高 了预测 平等(Chouldechova2017),从0.235到0.014。此外,真阳性 率 差 异 ( 也 称 为 机 会 均 等 ( Hardt , Price 和Srebro2016))从0.282降至0.018。值得注意的是,GSTAR仅牺牲了2个。2%的准确率,带来公平性的大幅提升。由于我们的模型的目标函数是独立的数据维数,我们的模型是更有效的,特别是对高维数据。与其他方法相比,我们在计算量上有很大的提高.数据集上的计算时间和辅助实验的比较见补充材料。灵活性和多重公平约束由于每个公平性度量具有不同的利益,因此理论上已经 证 明 它 们 不 能 一 起 完 全 满 足 ( Pleisset al.2017;Chouldechova2017;Kleinberg , Mullainathan , andRaghavan2016)。由于公平性度量之间的这种内在权衡,最近的大多数工作集中在一个单一的度量在同一时间,以实现公平。然而,使用GSTAR,我们可以灵活地优化可以用混淆矩阵格式表示的多个公平性约束。此外,给定任意分类模型的估计分布fya,我们可以根据需要通过适应不同的公平性标准来调整最优θ图3展示了具有公平性度量和准确性权衡评估的方法的结果总的来说,GSTAR的变体在保持性能的同时实现了每个目标的最佳公平性。例如,在图3(a)中,具有EOd约束的GSTAR在具有可比准确性的大多数公平性度量中具有出色的性能(80. 3%)。与GSTAR(EOd)相比,当我们同时引入EOd和DP(DP+EOd)时,我们获得了显著更好的w.r. t。DP公平性,牺牲少量的准确性和EOd。一般来说,通过牺牲个人的公平性能,我们可以引入多个约束。此外,我们观察到,引入的公平性约束越多,牺牲的准确性就越多。我们根据经验发现,在某些情况下(例如,图3(c)),引入多个公平性是相互补充的,改善了这两个条件。现有公平模型的后处理对于具有单个固定分类阈值的二元分类器(0表示outlogit,0表示out logit),标签概率为5利用GSTAR,我们可以在公平性和准确性之间提供更好的权衡在模型不可知的方式中给定logit/概率,我们可以提高公平性,如图4所示。在大多数情况下,我们观察到GSTAR后处理后的公平性改善。通过对每个受保护组的不同阈值进行优化,在公平性和准确性方面都有了更好的表现,这表明阈值优化不仅可以提高公平性,而且可以提高准确性。然而,当logits/概率的分布是高度极端的(例如使用GSTAR对CEOPost进行后处理的结果)时,难以估计分布,从而导致GSTAR中的错误优化我们根据经验发现,当数据集非常不平衡时,我们没有足够的样本来估计logit/概率分布,或者给定的分类模型对于样本集中于某些输出的预测过于确定时,就会出现这个问题。结论与讨论在本文中,我们提出了一个群体感知的阈值自适应方法(GSTAR)后处理模型无关的方式和优化多个公平性约束。在统一的目标函数中的分类误差和多个公平性我们的方法适用于不同的群体公平性概念,因为大多数公平性概念可以通过混淆矩阵表示为线性或二次方程。我们的经验表明,GSTAR是灵活的公平正则化,有效的低计算成本。我们还注意到,自适应阈值在某些情况下有利于准确性 GSTAR同意保护隐私,如欧盟GDPR(2016年法规)第17条。 我们只需要给定模型的输出的估计分布,我们的后处理方法不注意特征。因此,不再需要训练数据因此,GSTAR可以被应用到宽松的场景中,其中从业者不能访问个人级别的敏感信息,但估计每个敏感组的日志分布此外,我们经验性地发现,GSTAR不适用于后处理一些分类模型在以下情况下:1)该模型不提供logit/概率作为结果; 2)该模型提供了一个极端的分布的输出logit/概率。例如,当模型对其预测过于确定时,将难以执行概率密度估计。在我们未来的工作中,我们将研究解决上述问题的可能策略,并将GSTAR扩展到多类、多敏感群体问题,在更一般的方案中改进公平性-准确性引用Barocas,S.;和Selbst,A. D. 2016.大数据的不同影响。加州L. Rev. ,104:671。+v:mala2255获取更多论文Chouldechova,A. 2017.公平预测与不同的影响:累犯预测工具的偏差研究。Big data,5(2):153Corbett-Davies,S.; Pierson,E.; Feller,A.; Goel,S.;和Huq,A. 2017.公平决策与公平成本。在KDD,797Dressel,J.; Farid,H. 2018.预测累犯的准确性、公平性和限度。Sci. Adv,4(1):eao5580.Dua,D.;Graff,C.2019年。UCI机器学习库。Feldman , M.;Friedler , S. 一 、 Moeller , J.;Scheidegger,C.;和Venkatasubramanian,S.2015年。认证和消除不同的影响。InKDD,259Gratton,S.; Lawless,A. S.的;和Nichols,N. K. 2007.非线性最小二乘问题的近似高斯-牛顿法。SIAM,18(1):106Hardt,M.; Price,E.;和Srebro,N. 2016.监督学习中的机会均等。NeurIPS,3315他,K。张,X.; Ren,S.; Sun,J. 2016.深度残差学习用于图像识别。在CVPR,770Kamiran,F.; Karim,A.;和Zhang,X. 2012.区分感知分类的决策理论。InICDM,924- 929. 美国电气与电子工程师协会。金,J.S.;陈杰;和Talwalkar,A. 2020.公平权衡的模型不可知论特征。arXiv预印本arXiv:2004.03424。Kleinberg,J.; Mullainathan,S.;和Raghavan,M. 2016.公平确定风险评分的内在权衡。arXiv预印本arXiv:1609.05807。科哈维河1996.扩展朴素贝叶斯分类器的准确性:决策树混合。InKDD,volume 96,202-207.柳湖,加-地T.; Simchowitz,M.; Hardt,M. 2019.无约束学习的隐式公平准则。InICML,4051-4060.刘志;罗,P.;王,X.;和Tang,X.2015年。在野外深度在ICCV,3730Lokhande,V. S.; Akash,A. K.的;拉维,S。N.的;和辛格,V.2020。FairALM:增广拉格朗日方法训练公平模型,具有较小的遗憾. InECCV,365-381.斯普林格。Madras,D.; Creager,E.; Pitassi,T.;和Zemel,R. 2018.学习对抗性的公平和可转移的表示。arXiv预印本arXiv:1802.06309。梅农A. K.的;和Williamson,R. C. 2018.二元分类中公平性的代价。InACM FAccT,107Pedreshi,D.; Ruggieri,S.;和Turini,F. 2008.判别感知数据挖掘。InKDD,560Pleiss,G.; Raghavan,M.;吴,F.; Kleinberg,J.; Wein-berger,K.Q. 2017年。关于公平和校准。在NeurIPS,5680Quadrianto , N.;Sharmanska , V.; 和 Thomas , O.2019年。Dis-covering fair representation in the data domain.在CVPR,8227-8236。法规,G。 D. P. 2016.欧洲议会和欧洲理事会法规EU 2016/6792016年4月27日。欧洲联盟官方公报。见:http://ec。Europa.欧盟/司法/数据-保护/改革/档案/监管oj en.pdf(accessed 20 September 2017).谭 , Z.; Yeom , S.; Fredrikson , M.; 和 Talwalkar , A.2020年。学习内核模型的公平表示InAISTATS,155张湾,澳-地H.的; Lemoine,B.;和Mitchell,M. 2018.对抗性学习消除不必要的偏见。InAIES,335-340.赵,H.;和Gordon,G. 2019.学习公平表示的内在权衡。在NeurIPS,15675+v:mala2255获取更多论文i=1LEOPEOP联系我们=−11111001111∂θθ=θτ−1112“用于公平分类的组感知阈值自适应”的补充材料6 GSTAR的优化过程算法1:GSTAR模型的优化算法阈值θ采用交替优化的方法进行优化输入数据集X × A × Y={(xi,ai,yi)}n,分类-方法在GSTAR。这里我们以EOp约束为例来展示交替优化步骤,那么公平(θ)可以写为L公平(θ)=(TP1(θ1)- TP0(θ0)),(12)总体目标是尽量减少L(θ)=Lper(θ)+ λLfair(θ)。(十三)模型h(X),超参数λ.输出组特定阈值θ=(θ1,θ0)。初始化θ=(θ1,θ0)=(0,0)。1. 给定一个分类器H(x),用极大似然估计法估计概率密度函数fya,y,a0,1.虽然不收敛,2.计算 的 最优 步骤101作为1=α1η 1
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 探索数据转换实验平台在设备装置中的应用
- 使用git-log-to-tikz.py将Git日志转换为TIKZ图形
- 小栗子源码2.9.3版本发布
- 使用Tinder-Hack-Client实现Tinder API交互
- Android Studio新模板:个性化Material Design导航抽屉
- React API分页模块:数据获取与页面管理
- C语言实现顺序表的动态分配方法
- 光催化分解水产氢固溶体催化剂制备技术揭秘
- VS2013环境下tinyxml库的32位与64位编译指南
- 网易云歌词情感分析系统实现与架构
- React应用展示GitHub用户详细信息及项目分析
- LayUI2.1.6帮助文档API功能详解
- 全栈开发实现的chatgpt应用可打包小程序/H5/App
- C++实现顺序表的动态内存分配技术
- Java制作水果格斗游戏:策略与随机性的结合
- 基于若依框架的后台管理系统开发实例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功