没有合适的资源?快使用搜索试试~ 我知道了~
1用于无偏认证的梁健1,曹玉仁1,2,张晨斌1,2,常世宇3,白坤1,徐增林21腾讯云与智慧产业集团,中国2电子科技大学3麻省理工学院-IBM沃森人工智能实验室,IBM研究院,美国{joshualiang,laurenyrcao,kunbai}@tencent.comChenbinZhang@std.uestc.edu.cn,shiyu. ibm.com,zenglin@gmail.com摘要认证是一项旨在确认数据实例与个人身份之间真实性的任务。典型的认证应用包括人脸识别、人的再识别、基于移动设备的认证等。最近出现的数据驱动的认证过程可能遇到不期望的偏差,即,通常在一个域中训练模型(例如,对于穿着春装的人)而需要在其他领域应用(例如,他们把衣服换成了夏天穿的衣服)。为了解决这个问题,我们提出了一种新的两阶段的方法,解开类/身份域差异,我们认为多种类型的域差异。在第一阶段,我们通过一对多解缠学习(OVRDL)机制学习解缠表示。在第二阶段,我们通过一种加性对抗学习(AAL)机制来改进解纠缠。此外,我们讨论了必要性,以避免学习困境,由于解开因果关系表1.我们问题的假设的一个例子由于季节性的服装变化或摄像机和行人之间的角度变化而受到损害面对训练数据和测试数据之间的域差异问题,简单地应用数据驱动模型可能会导致关注域偏差的不期望的解决方案,即使训练数据足够。为了缓解上述问题,本文讨论了学习无偏认证的任务。对于简单性,我们把认证作为一个识别问题,使每个身份对应于一个类。我们认为存在多个域和多种类型的域差异,其中特定类型的域差异可以域差异的类型。 综合评价结果表明了该方法的有效性和优越性。1. 介绍认证考虑的是数据实例是否与个人身份匹配的问题。有各种各样的认证应用,包括生物特征认证[4,22](例如,面部识别[41]和手指识别)。打印验证[37])和人员重新识别[2,43]。然而,数据驱动的认证过程经常遭受不期望的偏差,即,域差异,指的是模型在一个域中训练,但在其他域中测试和验证的问题。例如,在人员重新识别领域[2],预测可以是2.两位作者的贡献相等。包括多个域。例如,对于人员重新识别,季节和拍摄角度是两种类型的域差异,其中季节包括四个域:春、夏、秋、冬,拍摄角度包括前、后、侧等域。为了更好地理解我们的问题,我们在表1中给出了一个只有一种域差异的玩具示例。在训练阶段,对于每组类,我们只在一个域上拥有它们的数据。换句话说,不同的域不共享类。在测试阶段,我们需要对与不可见的类、域组合相对应的数据进行识别。从数学上讲,我们试图解决的问题与域自适应有关[25,8,28,32],但与之不同,因为域自适应允许源和目标域共享类,但不提供目标域的标签。领域自适应在迁移学习领域得到了广泛的研究[24,33,32,19]。我们的问题可以转化为11428第一第二第三域1域2结构域3火车测试测试测试测试测试火车火车测试11429第一阶段第二图1.我们框架的架构。直观地说,我们的框架是在多任务学习的味道。每个任务的输出被视为一个属性来学习。我们的工作的属性解纠缠管道包括两个阶段。第一阶段由网络的多个分支组成,每个分支都通过一对多的解缠机制进行学习。第二阶段的目标是进一步改进,关键思想如图所示。3.第三章。最好用彩色观看。如果允许测试域的数据在没有类标签的情况下进行训练,则将其转化为域适应问题。因此,我们将我们的问题称为广义跨域识别(GCDR)问题。在面向公平的机器学习(FML)方法[7]领域也研究了类似的问题在这种情况下,FML方法通常也将迁移学习方法作为解决方案。在本文中,我们还应用迁移学习方法来学习无偏表示。具体来说,为了专注于主要问题,我们简单地应用对称迁移学习方法(参见Weiss等人描述的定义)。[33])。在本文中,我们提出了一种新的识别方法,学习解开表示处理域差异,以实现无偏识别。如表1所示,对于特定的类组,类是不同的,但域是相同的。因此,学习一个无偏的模型是可行的,该模型可以在忽略域差异的影响的情况下进行分类。我们还假设,虽然我们有域和域差异类型的标签,但域差异如何影响数据是未知的。对于数据实例,其class和do- main值被视为其属性.我们的方法通过解开这些属性来学习无偏表示。我们的方法的框架如图所示1,由两个阶段组成在第一阶段,我们提出了一个一对多的解纠缠学习(OVRDL)机制,将每个实例映射到多个隐藏空间。在每个隐藏的空间中,我们从其他属性中分离出一个属性。在阶段2中,由于训练数据中包含属性值的有限组合,因此我们进行数据扩充以随机地组合属性标签并将其关联的隐藏特征向量连接为新的数据样本。提出了一种基于隐藏特征随机拼接的加性对抗学习(AAL)机制,以进一步提高第1阶段的解纠缠直觉上,通过最小化负面影响来消除偏见我们扩展讨论如何避免学习困境,由于解开因果关系相关的属性。基准数据集和真实数据集上的实验结果表明了该方法的有效性和优越性。我们还进行了烧蚀实验,以显示我们提出的框架的每个组件的贡献。2. 相关工作为了从领域差异的未知特征中学习无偏表示,现有的迁移学习方法主要有三种,它们也是基于表示学习的FML的典型解决方案。在本节中,我们将回顾它们以及其他一些相关的工作,并将它们与我们的工作区分开来。消除边际分配差异第一族消除了域之间的边缘分布差异这一系列方法包括传输分量分析(TCA)[23],深度自适应网络(DAN)[17],反向梯度(RevGrad)[9],自适应判别域自适应(ADDA)[29]等。Goel等人提出的FML方法。[10] Zhanget al. [39]也属于这一类。许多FML方法采用RevGrad,例如Wadsworth等人提出的方法。[31] Beutelet al. [3]的文件。使用看不见的类、域和组合生成数据-属性1f1~S1隐藏矢量T1R1属性2f2~S2u隐藏矢量T2R2属性3f3~S3隐藏矢量T3R3随机组合加性对抗学习f1D11G1D12D13XFCF2数码21PG2D22D23F3D31G3D32D33一个学习者对一个学习者,11430+JJi=1JJGi=1+J′J第二个家族生成与看不见的编码类、域编码组合相关的数据样本,例如ELEGANT [35]、DNA-GAN [34]、多级可变自动 编码器(ML-VAE )[5]、CauseGAN[14] 、 Res-GAN [27] 、 SaGAN [40] 等 。 FML 方 法Fairness GAN [26]和FairGAN [36]也属于这一类。这些方法生成合成数据,然后可以在真实数据和生成的数据上训练普通模型。混合方法第三个家族执行边缘分布差异消除和合成数据生成,例如跨域表示Dis- entangler(CDRD)[15],通用化零射击学习的合成示例(SE-GSTOL)[30],域适应的分解合成(DiDA)[6],属性-(a) 培训(b) 测试图2.以背景颜色作为域差的C-MNIST实验设置最好用彩色观看。是两种属性。背景色和前景色的不同组合可以形成多个域。 为了表示方便,我们记ai=(yi,hi)∈Z(m+1)为广义属性基于合成网络(ABS-Net)[18]。样本i的向量。我们记为i作为第j个元素Madras等人[20]提出了这样一个FML框架。一个i和一个i∈{1,2,. . . ,kj},其中kj是其他相关工作这样的现象分组类也讨论了Bouchacourt等。[5]赵[42]。然而,他们没有提供学习方法来消除域差异。Heinze-Deml和Meinshausen也讨论过这个问题[12]。然而,它们作为具有各种域的类已经包含在训练数据中。Yu等人[38]还讨论了类不一定由多个源域共享的设置。然而,他们的方法假设所有的类别、域的组合都包含在训练数据集中。现有的工作和我们提出的方法之间的差异尽管取得了成就,现有的方法要么不处理GCDR问题,或不能避免的学习困境,由于解开相关类型的域差异。此外,大多数生成式方法在原始数据空间中生成样本。 但是,如果一个合适的模型结构是上限,集在本文中,我们将[k]表示为索引集{1,2,. . . ,k}。在实践中,数据集D的样本通常是不完整的。对于图中所示的示例。2,人们可以观察具有红色背景的数字5的图像和具有绿色背景的数字2的图像,而人们想要对具有绿色背景的数字5的图像进行预测。形式上,我们定义GCDR问题如下。问题1. (广义跨域识别(GCDR))给定数据集D={(xi,ai)}n,设Dn是部分观测的训练集。我们的学习问题的目标是训练一个模型的例子与部分观察到的属性值的组合,然后gener-将此模型应用于属性值组合缺失的测试集D。将训练集和测试集的属性值的组合的集合表示为. .,ai]:当然,在原始数据空间中生成数据并不必要。i∈}和C={[ai,. . . ,ai1]:i∈(m+1),re-这是必要的,并且在数据传输期间可能会导致其他错误。生成和学习所生成的数据。我们提出的方法解决了上述问题3. 方法1(m+1)特殊性和 我们有T常数,即两个集合没有内截, CC=。另外对于训练集,对于每个第j种域差,将与其第r个域对应的类组表示为r={yi:hi=r,r∈[kj],i∈k}. 我们有个骗局-本节详细介绍了我们提出的网络。 我们首先定义符号和问题设置. 考虑由n个独立样本组成的数据集D={(xi,yi,hi)}n首先,不同域不划分类别,即, 对于每个第j类型的域差,对于所有r,r′∈[kj]和rr′.例。 对于第i个样本,xi∈Rd是一个特征向量,d维,yi∈Z+是一个范畴类标号,识别任务,并且hi∈Zm是由m个分类域属性组成的向量。例如,在彩色MNIST(C-MNIST)识别中(参见Lu等人的图6中的图像示例),[18]),xi可以是大小为28 × 28的数字的彩色图像,由y i表示的类标签是{0,1,. . .,9}、图像的背景颜色(由hi表示)和前景颜色(由hi表示我们的框架结构基于ABS- Net [18],并通过这些贡献进行了进一步的创新扩展:(1)一对多的解缠学习机制,(2)进一步提高解缠性能的AAL机制,(3)停止某些解缠过程以避免由于解缠因果相关属性而导致的学习困境的扩展策略,这些将在下文中介绍。1 2G11431JJJJJ3.1. 一个VS休息解开学习我们的主要目标是将类从所有类型的域差异中分离出来。此外,作为辅助,我们是a i的独热编码向量,wj是第j个属性的权重,j ∈ [m+1]。为了区分每种类型的域差异的域,我们通过以下方式进行优化:Σ Σ我还打算解开每一种类型的域差异,类和其他类型的域的差异。如前所述,如果我们把类和所有类型min{Djj′}i∈j′w<$jj′Lad(Djj′(Gj(G0(xi),a<$i′),(2)J域差异作为属性,我们的目标是从其他人解开每个属性。因此,我们可以为每个属性开发一个one-versus-rest策略,以实现两个目的:(1)学习每个属性本身,(2)发现其中Lad是对抗学习的损失函数,并且w<$jj′是(j,j′)pai r,j,j′∈[m+1]的权重。为了在对抗学习过程中加强属性学习,我们通过以下方式进行优化:把它从其他人。Σi i具体来说,对于每个属性j∈[m+ 1],我们学习从原始数据空间到隐藏空间的映射:x→fjmin的g0i∈ΩwjjLad(Djj(Gj(G0(x),aj).(三)(here我们省略样本顺序的索引在我隐密空间,上述两个目的可以具体表现为:(1)与不同分类值相关的样本-最后,为了消除所有类型的域差异,我们优化方式Σ Σ可以很好地分离属性j的UE,即, P(aj|fj)=1。minG0,{G}w<$jj′Lad(Djj′(Gj(G0(xi),z<$i′),(4)(2) 样本的 分 布 与 其 他 属 性j′ 的 分 布 无 关 , 即 , P(aj′|fj)=P(aj′),这可以通过对抗学习过程来实现。如图在第一阶段,我们构建一个网络来实现上述目的。对于原始实例的特征向量x,其由输入特征变换网络P变换为隐藏特征向量fc,隐藏特征向量fc进一步由属性特征学习网络G1,. . . ,Gm+1转化为属性特征向量f1,. . . ,fm+1。对于每个属性j,我们期望与属性特征向量fj相关联的隐藏空间来实现上述两个目的。为了实现上述目的,我们为每个属性开发了一个一对多的解纠缠学习(OVRDL)机制。对于每个属性j,我们构造(m+1)个判别网络Dj1,. . .,Dj(m+1).每个区分网络都试图区分相关属性的不同分类值。我们期望{Djj′}j′j,逆向学习,不能正确预测j′。根据Alexia[13]提出的对抗学习机制,“非对角”网络的对抗学习的简要版本可以被视为以下两个替代步骤[ 13 ]。步骤1:固定Gj,并且对于每个j′i=j,优化Dj j′,以使输出近似为ta的独热编码向量的aj′,得到aj′;步骤2:对所有j′j固定D jj ′,并优化Gj,使输出近似于(1−aj′)。最后,我们在第一阶段建立了OVRDL机制。为了学习每个属性,我们通过以下方式进行优化:ji∈j′j其中zi ′=1−yi ′。为最后一层选择的激活函数判别网络是softmax函数。我们选择交叉熵损失为Lat,均方误差为Lad(参考LSGAN [21])。当量(1)、(2)、(3)和(4)交替优化。对于每个小批次,Eq.(1)和(2)运行一步,而Eq.(3)和(4)运行五个步骤。对于仅通过阶段1的推断,我们堆叠P、G1和D11以预测每个样本i的类标签yi。虽然从所有类型的域差异中分离出类只能通过网络的第一分支来完成,即,直接连接到G1的网络,我们认为这种建模策略没有充分利用监督信息来提高P的表示能力。稍后在第4节中,我们通过消融研究证明了这会导致准确性急剧下降。我们表明,我们的优化方案可以提高平等的赔率,这是一个公平的措施定义的Hardt等人。 [11]。这意味着预测器Y和域变量Z在给定真实标签Y的情况下是条件独立的,即, P(Y)|Z,Y)=P(Y)|Y)。定理1. 对于GCDR问题和定义的模型,我们的优化方案定义的方程。(1)(4)可以改善Hardt等定义的几率均等性。[11 ]第10段。证据 证据在补充材料中。3.2. 加法对抗学习为了进一步提高解缠性能,我们提出了一种加性对抗学习(AAL)机制利用属性组合,minG0,{Gj},{Djj}i∈NwjLat(Djj(Gj(G0(x),aj),(1)11432J在训练数据中看到。属性组合是由一个数据增强过程产生的。我们预计其中Lat是属性学习的损失函数,AAL机制具有以下特性:当11433JJJj′Jj′模块首先,我们描述了数据增强过程。对于每个第i个生成的数据实例,特征向量是一个com-(m+1)个特征向量的二进制化, . .,,以及1关联的属性向量是[a],. . . ,ai(m+1)]中。 就每一个─1(m+1)trib utej∈[m+1],nfi=fl且ani=al,其中fl且j j j j jal分别是属性j的第l个属性特征向量和属性值,l∈Z+是训练实例的随机索引。对于不同的属性,随机指数可以不同。例如,假设m= 1,对于两个样本,([f1,f1],[a1,a1])和([f2,f2],[a2,a2]),1 2 1 2 1 2 1 2生成的数据样本可以是([f1,f2],[a1,a2])。 的1 2 1 2Lu等人的筛选策略。”[18]这是一个应用。接下来,我们推导出AAL机制。生成的数据样本分为两个集合:i∈{i ∈图3.我们AAL机制的关键思想虚线表示反向传播的方向。最好用彩色观看。[nr]:属性值组合[a],. . . ,ai]有1(m+1)在训练数据中可以看到},并且u={i∈ [nr]:属性j∈[m+ 1]的权重。 另一方面,在一项研究中,属性b ute-值组合[a],. . . ,ai]一直没有对于在训练数据中看不见的属性-值组合1(m+1)在训练数据中可以看到。在这两个集合的基础上,我们通过图1说明了我们的AAL的核心思想。3.第三章。假定对于每个属性j∈[m+ 1],来自Rj的损失是返回的传播到TS,其中Sj={j′∈[m+ 1]:j′/=j}:只有两个属性:数字和背景颜色,分别用于网络的两个分支的学习,minΣ。w′Lr RJ.ΣmTj′(αfi)Σ,aiΣ.(六)活泼地我们假设第一阶段的解纠缠已经接近最优解。然后,对于所看到的属性,Rj,TSji∈Nj′=1值组合,对于每个属性j,我们学习一个变换网络T j来预测一个属性j。 我们假设这个学习过程让网络拟合所见组合的数据,例如,具有红色背景的数字5可以被精确地识别为 然后,对于一个看不见的组合,一个数字5和绿色背景,我们让网络输出“5”为数字,“绿色”为背景。在上述假设下,如果输出颜色不是“绿色”,我们认为错误来自第一个分支的红色信息。因此,我们将损失从第二个输出反向传播到第一个分支,以消除其中的背景信息最后,可以去除第一分支中的偏置如图2中阶段2的第二部分所示1,对于每个所生成的数据样本、特征向量, . .,、添加剂学习机制具有两个良好的特性-性质:(1)每个维度中的判别信息可以用可分解的加性形式表示,以及(2)对于所有j∈[m+ 1],sj的每个维度具有相同的含义,这允许我们合并稀疏罚分以使加性特征向量的每组维度对应于单个属性。与第1阶段相同,我们为最后一层选择softmax激活函数和交叉熵损失。为了推断,我们堆叠P,G1,T1和R1来预测类标签。3.3. 关于因果扩张我们进一步考虑缓解的困境disentang- gling时,一些属性是相关的。对于最极端的情况,如果两个属性相同,则不可能1(m+1)被变换为加性特征向量S1,. . . ,s(m+1)的可加空间变换网络 T1,. . . ,T ( m+1 )。加性特征向量s1,. . . .,s(m+1)被添加为求和特征向量u,其被发送到识别网络R1,. . . ,R(m+1). 对于训练数据中看到的属性-值组合,对于每个属性j ∈ [m +1],来自Rj的损失仅反向传播到Tj,即,我们优化以下问题:我们无法根据一个特征一个向量,但可以识别另一个。因此,直觉上,我们不应该解开相关的属性。然而,如果我们不对所有相关属性进行解纠缠,我们可能会遇到解纠缠不足的问题。 我们考虑一种特定类型的相关性:因果关系我们在定理2中从理论上证明,对于任何属性j,如果另一个属性j-min Σ。 .Σmw′Lr RJTj′(αfi)Σ,aiΣ、(五)tributej'导致它,然后学习特征向量fj以rec-识别属性j,同时将其与属性j′Rj,Tji∈Nj′=1可能损害对属性j的识别。这是因为如果fj与属性j′无关,因为属性j′导致JJuS11434J其中Lr是识别损失函数,并且w′是属性j,fj和属性j之间的相关性是lim-11435被绑住了因此,如果属性间因果关系的先验信息是已知的,我们应该停止一些解纠缠的过程,以避免学习困境。具体地,对于阶段1,我们可以使用先验矩阵Λ∈{0,1}(m+1)×(m+1)处理属性之间的因果关系。选择ABS-Net [18],这是我们的基本方法,没有对抗机制,以及CDRD [15]和SE-GML [30],它们可以被视为Madras等人的FML框架下的高级实例化算法。[20 ]第20段。最后,我们比较了堆叠的直接学习策略,对所有的j,j′∈[m+ 1],j′j,我们乘以权重P、G1和D11作为整个网络。wjj′inEq. (2)和Eq。 (4)由Λjj′。 基于定理2,如果属性j ′导致属性j,则设Λjj′=0,否则设Λjj′=1。 F或阶段2,对于等式2中的索引集合Sj,(6),我们可以删除属性的索引,由属性j引起,对于每个j∈[m+ 1]。定理2. 对所有的属性j ∈ [m +1],对任意的特征向量fj ,记fj 的真标号为aj∈Z+. 则对于属性j,j′∈ [m+1]且j/= j′,如果属性j′导致属性j,则不能同时达到学习目标P(aj|fj)=1且P(aj′|fj)=P(aj′)完全. 然而,如果属性j导致属性j′,则有可能完美地达到两个学习目标。 证据可以在补充材料中找到。证据 证据在补充材料中。4. 实验在本节中,我们评估所提出的方法。 综合和真实世界的数据集都用于评估。我们的实现使用Keras和Tensorflow[1]后端,可以在https://github.com/langlrsw/AAL-unbiased-authentication上找到。评估我们研究了多标签和多类识别类型的预测性能。因 此 , 对 于 多 标 记 类 型 , 我 们 使 用 平 均 AUC(aAUC),其定义为每个类别的ROC曲线下面积的平均值、平均错误接受率(aFAR)和平均错误拒绝率(aFRR)。由于每个类别的阴性样本数量远大于阳性样本数量,因此我们报告了aAUC和(aFAR+ aFRR)/2 。 对 于 多 类 类 型 , 我 们 报 告 top-1 精 度(ACC@1)。实施细节对于所有实验,G1,. . . ,Gm和{Tj}分别由一个以超曲正切为激活函数的单隐层构造。 隐藏单元在被馈送到属性特征学习网络之前被压平。{Djj′}和{Rj}由一般化的线性层构成。具有两个卷积层的卷积神经网络(CNN)被用作图像数据集的输入特征变换网络P。 具有一个隐藏层P的全连接神经网络用于基于向量的数据集。权重{wj}、{w<$jj′}和{w′}设置如下。设w1=w′=1且w∈j1=1J1我们考虑一个识别任务,在存在严重的-不同类型的域差异。对于每种类型的域差异,不同的域在训练集中不共享类,并且训练集和测试集不共享类的组合,域的组合。对三个数据集进行综合评价:(1)具有10个类和m= 2种域差的C-MNIST数据集[ 18 ],(2)具有211个类和m= 1种域差的重组CelebA数据集[ 16 ],以及(3)我们开发的基于移动传感器的具有29个类和m= 1种域差的认证数据集。对于每个数据集,将在相应章节中详细描述重组,并随机选择测试集的10%数据进行验证。评估遵循问题1中定义的GCDR设置。如第2节所讨论的,有三种方法可以利用现有的迁移学习方法来处理域差异。对于消除边缘分布差异的第一个推力,我们选择RevGrad [9],它也作为Beutel等人的FML方法的解决方案。[3]的文件。对于生成具有不可见类别、域标签组合的数据的第二个推进,我们选择了仅使用域标签的ELEGANT [35]和仅使用类别标签的ML-VAE [5对于使用混合解决方案的第三个推力,我们对于每个j ∈ [m +1]。 其他权重同样设置为0。1.一、4.1. 手写数字实验我们重新构建最初由Lu等人建立的C-MNIST数据集。[18]绩效评估。对于MNIST的原始灰度图像,添加10种不同的颜色作为背景色(b-colors),并添加10种不同的颜色作为前景色(f-colors),从而从1 k种可能的组合(10位× 10位)中得到一个由70 k彩色RGB数字图像组成的新的C-MNIST,其分辨率为28×28(60 k用于训练,10 k用于测试)10个b色×10个f色)。C-MNIST的示例如图所示。Lu et al. [18 ]第10段。在本文中,我们把数字识别作为主要的学习任务。背景色和前景色可以看作是两种不同的域。很明显,背景颜色与数字无关。然而,由于它们占据了图像的大部分区域,因此对预测精度有较大的影响因此,我们使用背景颜色作为对数字进行分组的如图2,在训练数据中,数字0至4与绿色b颜色相关联,而5-9与粉红色b色相关,其他数据与掉了具有100×104、粉红色b-颜色100和105×109、绿色b-颜色100组合的数据用于测试。前景11436方法aAUC (远)+aFRR)/2ACC@1直接78.3526.7020.96RevGrad [9,3]80.7124.4521.68CDRD [15,20]84.8335.7933.49[30,20]99.792.7294.83优雅[35]79.9424.6110.68ML-VAE [5]77.2628.0618.73ABS-Net [18]77.6927.4115.92我们98.426.1484.27方法aAUC (远)+aFRR)/2ACC@1直接78.5442.1011.07RevGrad [9,3]80.1231.1810.96CDRD [15,20]80.2039.9016.47[30,20]84.9626.6212.76优雅[35]75.8832.0210.05ML-VAE [5]75.2936.077.97ABS-Net [18]75.8034.908.09我们87.0722.1914.99表2. C-MNIST数据集的性能(%)比较。“直接”是指将P、G1和D 11堆叠为整个网络。属性也用于解开,但我们允许它在训练数据中共享数字。我们总共有5970个训练实例和1003个测试实例表2总结了C-MNIST的性能比较实验结果表明,该方法的性能明显优于直接学习方法,表明了该方法的有效性。 此外,我们的方法优于其他基线方法显着,除了SE-GALGOL方法。我们推测C-MNIST对于SE-GNUML来说是容易的,因为域差是简单而稳定的背景颜色。然而,在实际应用中,这些属性几乎不成立,在接下来的两个真实世界的数据集上,我们将显示其性能下降。我们将实验扩展到其他背景色和前景色。请在补充材料中找到更多细节。4.2. 人脸识别我们使用CelebA数据集的对齐和裁剪版本[16],并将所有图像缩放为64×64。我们选择眼镜属性作为域差异。我们选择具有至少20幅图像且#(Eyglasses=0)/#(Eyglasses= 1)∈[3/7,7/3]的个体,得到211个个体。一半的人在训练期间戴眼镜,在测试期间不戴眼镜。 另一半人在训练时不戴眼镜,在测试时戴眼镜。表3显示了对CelebA进行的比较。我们的方法在aAUC和(aFAR+ aFRR)/2(多标签类型的度量)方面显著优于其他方法。SE-GRENL方法表现不佳,这表明其不一致性不足。结果表明,复杂和可变的域差异类型的真实世界的数据集是困难的SE-GALML学习。CDRD方法在aAUC和(aFAR+ aFRR)/2方面表现不佳,但在ACC@1方面表现出色,因为大多数个体的阳性样本具有较低的预测分数,但更多个体的阳性样本具有较高的预测分数,这表明对于大多数个体而言不太令人满意的认证性能。表3.CelebA数据集的性能(%)比较号1-6号7-12号十三十五号16-29iOS火车测试×火车Android测试火车火车×表4.移动设备上的身份验证问题第一行中的数字表示受试者组。“×”表示没有此条件的数据。方法aAUC (远)+aFRR)/2ACC@1直接76.9028.213.56RevGrad [9,3]75.8832.380.38CDRD [15,20]89.1720.2646.05[30,20]78.8326.1220.54ML-VAE [5]77.1627.184.68ABS-Net [18]76.5828.095.13我们93.4013.5946.37表5.移动数据集上的性能(%)比较4.3. 移动设备我们还建立了一个包含29名受试者的智能手机传感器信息的数据集,该数据集记录了来自多个传感器(如加速度计、陀螺仪、重力仪等)的两秒时间序列数据。从时域和频谱域的统计特征提取191维的所有5144个数据实例。操作系统类型(IOS/Android)被认为是域差异。我们选择了12名使用过两种电话系统的被试,然后构建了一个有偏学习任务,如表4所示。ELEGANT方法不适用于非图像数据,因此被删除。结果报告于表5中,其中我们的方法在aAUC和(aFAR+aFRR)/2方面显著优于其他方法。对于这种困难类型的域差异,SE-GALML方法也表现不佳CDRD方法在多 标 签 类 型 的 度 量 中 仍 然 表 现 不 佳 , 特 别 是 在(aFAR+ aFRR)/2中。4.4. 消融研究我们在上述设置中对C-MNIST数据集进行了一系列烧蚀实验,11437方法aAUC (远)+aFRR)/2ACC@1阶段1+298.426.1484.27阶段195.9110.2070.56单枝78.8726.7024.47共享-D % s87.2718.7246.75第1阶段无进展期92.4714.8146.97完全无进77.6927.4115.92直接78.3526.7020.96表6.消融研究结果说明OVRDL(第1阶段)和AAL(第2阶段)机制对性能的具体而言,我们比较了以下四种模型变体的性能。单分支。只有第一个分支的网络在阶段1是左。级2因此被移除,因为它与多分支级1一起工作共享-D % s。 D1j=. . . = Dmj,对于所有j ∈[m+1]。第一阶段无进展期。在阶段1中的网络{Djj′}jj′被移除。完全没有广告基于No-Adv-Stage-1,在阶段2中,损耗正常地反向传播到所有网络。这是ABS-Net方法[18]结果示于表6中。值得注意的是,与其他包含对抗学习的方法相比,单分支单分支的性能与表2中列出的相关方法的性能相似。这种现象表明,建立单分支模型来处理领域差异是不够的,值得建立多分支模型来学习所有属性,以提高P的表示能力。这种多分支结构是我们的方法和相关方法之间的主要区别,我们认为这是我们框架的主要此外,共享-D的性能也大大降低.值得一提的是,对于共享-D,两个阶段的性能几乎相同。这些现象表明,将属性向量限制在同一空间中会损害它们对独立表示的学习。将No-Adv-Stage-1 与Shared-D进行比较,在第1阶段中没有对抗学习优于这些现象证明了我们提出的OVRDL机制的高效性。另一方面,将阶段1+2与阶段2相比,从第二阶段获得的改进是显著的。对于No-Adv-Stage-1,值得一提的是,在没有阶段2的情况下,它只能此外,通过仅改变阶段2的反向传播机制,与No-Adv-Stage- 1相比,No-Adv-At-All显著表现不佳这些现象证明了我们提出的AAL机制在第2阶段的高效性。图4.在第1阶段的不同训练阶段,改进第2阶段的AAL机制。我们进一步研究了AAL机制在第1阶段不同训练阶段的有效性。图4显示,AAL机制可以在训练开始时贡献25%的绝对性能。在训练的中期和后期,改进是有限的,因为AAL的目的是消除偏见的因素在功能进一步,但这些因素几乎清洗到最佳的阶段1。5. 结论在本文中,我们研究了数据偏差和一般化的跨域识别问题的认证领域,域不共享类。我们识别类为看不见的类,域为数据的组合。我们提出了一个两阶段的解开学习方法来解决这个问题。第一阶段建立了一个一对多的解缠学习机制,以解缠类和每种类型的域差异。第2阶段进行数据增强,并使用提出的加性对抗学习来进一步改进第1阶段的解纠缠。我们还讨论了如何避免由于区分因果相关的域差异类型而导致的困境。实验表明,我们的方法显着优于现有的国家的最先进的我们还进行了一项消融研究,以证明我们方法的关键组成部分的有效性。一些有趣的未来研究方向包括开发灵活的迁移学习算法,以增加域差异类型的数量。确认我们要感谢腾讯的TuringShield团队对我们研究的支持,Lu等人。[18]分享他们的ABS-Net和C-MNIST数据集的代码。腾讯云与智慧产业事业部的白冰,感谢他提出的真知灼见。11438引用[1] M. 阿巴迪山口Barham,J.Chen,Z.Chen,中国山核桃A.Davis,J.迪恩M. Devin,S.盖马瓦特湾Irving,M. Isard等人张量流:一个大规模机器学习系统。在OSDI,第16卷,第265-283页,2016中。6[2] A. Bedagkar-Gala和S. K. Shah.关于人员重新识别的方法和 趋 势 的 调 查 。 Image and Vision Computing , 32(4):270-286,2014. 1[3] A. Beutel,J. Chen,Z. Zhao和E. H.气对抗性学习公平表征时的数据决策和理论含义。arXiv预印本arXiv:1707.00075,2017年。二六七[4] D.巴塔查里亚河Ranjan,F. Alisherov,M. choi等人生物识别认证:一个审查。International Journal of u-and e-Service,Science and Technology,2(3):131[5] D.布沙库尔河Tomioka和S. 诺沃津 多级变分自动编码器:从 分组观察中学 习分解的表 示。arXiv预印本arXiv:1705.08841,2017。三六七[6] J. Cao、草O.Katzir,P.Jiang,中国粘蝇D.Lischinski、D.科恩-奥尔,C. Tu和Y.李Dida:用于域适应的解缠结合成。arXiv预印本arXiv:1805.08019,2018。3[7] A. Chouldechova和A.罗斯机器学习中的公平前沿。arXiv预印本arXiv:1810.08810,2018。2[8] G.楚卡视觉应用程序的域适应:全面调查。arXiv预印本arXiv:1702.05374,2017。1[9] Y. Ganin和V.Lempitsky 通过反向传播的无监督域自arXiv预印本arXiv:1409.7495,2014。二六七[10] N.戈埃尔,M。Yaghini和B.费廷斯通过凸公平标准的非歧视性机器学习。在第三十二届AAAI人工智能会议上,2018年。2[11] M. Hardt,E. Price,N. Srebro等人监督学习中的机会平等。神经信息处理系统的进展,第3315-3323页,2016年。4[12] C. Heinze-Deml和N. 迈因斯豪森 Grouping-by-id:防御敌对领域的转移。2018. 3[13] A.乔利库-马蒂诺相对论鉴别器:标准GAN中缺少的关键元素。arXiv预印本arXiv:1807.00734,2018. 4[14] M. 科贾奥卢角Snyder,A.G. Dimakis和S.维什瓦纳特Causalgan:通过对抗训练学习因果内隐生成模型。arXiv预印本arXiv:1709.02023,2017。3[15] Y.-- C.刘玉- Y.是的T C.傅,S.- D.王维C. Chiu和Y.- C. F.王.分离并调整:学习跨领域解纠缠的深层表征. arXiv预印本arXiv:1705.01314,2017。三六七[16] Z. Liu,P.Luo,X.Wang和X.唐深度学习在野外面临挑战在IEEE计算机视觉国际会议论文集,第3730六、七[17] M.隆岛,澳-地Cao、J.Wang和M. I.约旦.使用深度适应网 络 学 习 可 转 移 特 征 。 arXiv 预 印 本 arXiv :1502.02791,2015年。2[18] J. Lu,J. Li,Z. Yan,F. Mei,和C.张某基于属性的合成网络(ABS-NET):从伪特征表示中学习更多。模式识别,80:129-142,2018。三五六七八[19] Y. Luo,Y.温湖,澳-地Duan和D.涛. 转移度量学习:算法,应用和展望。arXiv预印本arXiv:1810.03944,2018。1[20] D. Madras,E. Creager,T. Pitassi和R.泽梅尔学习对抗性 的 公 平 和 可 转 移 的 表 达 。 arXiv 预 印 本 arXiv :1802.06309,2018。三六七[21] X.茅角,澳-地Li,H.谢河,巴西-地Y. Lau,Z. Wang和S.史莫利。最小二乘生成对抗网络。在Computer Vision(ICCV),2017 IEEE国际会议上,第2813-2821页。IEEE,2017年。4[22] A. Mir,S. Rubab和Z. Jhat.生物识别验证:文献调查International Journal of Computing and ICT Re
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 明日知道社区问答系统设计与实现-SSM框架java源码分享
- Unity3D粒子特效包:闪电效果体验报告
- Windows64位Python3.7安装Twisted库指南
- HTMLJS应用程序:多词典阿拉伯语词根检索
- 光纤通信课后习题答案解析及文件资源
- swdogen: 自动扫描源码生成 Swagger 文档的工具
- GD32F10系列芯片Keil IDE下载算法配置指南
- C++实现Emscripten版本的3D俄罗斯方块游戏
- 期末复习必备:全面数据结构课件资料
- WordPress媒体占位符插件:优化开发中的图像占位体验
- 完整扑克牌资源集-55张图片压缩包下载
- 开发轻量级时事通讯活动管理RESTful应用程序
- 长城特固618对讲机写频软件使用指南
- Memry粤语学习工具:开源应用助力记忆提升
- JMC 8.0.0版本发布,支持JDK 1.8及64位系统
- Python看图猜成语游戏源码发布
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功