没有合适的资源?快使用搜索试试~ 我知道了~
1面向单域泛化的中心感知对抗性增强陈天乐Mahsa Baktashmotlagh Wang Zijian昆士兰{firstname.lastname} @ uq.edu.au马蒂厄·萨尔茨曼EPFLmathieu. epfl.ch摘要域泛化(DG)旨在从多次训练(即,源)可以很好地推广到不可见测试的域(即,目标)数据。单域泛化(单DG)最近出现,以解决一个更具挑战性的,但现实的设置,只有一个源域在训练时可用。现有的单DG方法典型地基于数据增强策略,并且旨在通过增强域外样本来扩展源数据的跨度。一般来说,它们的目的是生成困难的例子来混淆分类器。虽然这可以使分类器对小扰动具有鲁棒性,但是生成的样本通常不足以模仿大的域偏移,从而导致次优的泛化性能。为了缓解这一问题,我们提出了一种中心感知对抗增强技术,该技术通过改变源样本来扩展我们进行了广泛的实验,以证明我们的方法的有效性,在几个基准数据集的单DG,并表明我们的方法在大多数情况下表现出最先进的。1. 介绍现有的大多数机器学习算法都是基于训练数据和测试数据遵循相似分布的假设。在计算机视觉中,由于风格的改变(例如,照明、背景)。[18这样的现象被称为畴移,并导致严重的性能下降。为了解决这个问题,域自适应方法旨在通过学习有区别的但域不变的表示来对齐标记的源数据和未标记的目标数据的分布[2,1,17]领域泛化(DG)通过寻求学习一个可以在来自非目标数据的数据上表现良好的模型,来解决目标数据在训练期间不可用的更具挑战性的场景。看到测试域。在标准设置中,DG假设在训练时有多个源域可用。然而,在实际情况下,收集和注释来自不同环境的数据因此,最近的研究研究更现实的DG设置只有一个源域是在训练阶段。这被称为单域泛化(Single-DG)。由于在训练时缺乏对不同源域的访问,大多数现有的单DG方法旨在通过从复杂但具有挑战性的域生成数据来解决看不见的域偏移最有效的方法之一是对抗性数据增强[27,24,35]。本质上,它包括通过最大化分类误差和预测熵来生成硬示例虽然这产生了硬样本,但是这样的样本不一定精确地模仿域移位;它们可以被认为是对抗性扰动。例如,在数字识别的上下文中,对抗性增强可能试图通过增强“0”使其看起来像"8“来混淆分类器虽然这将使模型对这种“硬”示例具有鲁棒性为了解决这个问题,我们提出了一种中心感知的对抗域增强(CADA)方法。如图1所示,它通过修改源样本来生成新的、多样化的数据,以便将它们推离类中心,从而扩展源分布。这是通过一种新的角度中心损失,计算测地线之间的距离,在一个潜在的空间中的原始和增强的样本由于观察到最大化类之间的间隔可以提高模型的鲁棒性和泛化能力[8,30],我们使用我们的角中心损失不仅可以扩展数据分布,还可以鼓励类被很好地分离。换句话说,为了提高泛化能力,CADA以对抗的方式在生成不同的数据和扩大不同类别之间的差距之间进行迭代我们在基准对象识别数据集41574158图1:中心感知对抗域增强(CADA)的总体框架。它以对抗性的最小-最大方式增强了任务模型的泛化能力。以前的方法试图生成硬示例来混淆分类器,这可能不能充分扩展源数据的分布,而是创建接近决策边界的样本。相比之下,我们的方法将样本推离类中心以扩大源分布,从而增加覆盖目标数据跨度的机会。此外,它通过鼓励样本聚类在类中心周围,最大化类之间的裕度。证明我们的方法的有效性,并表明我们的方法在大多数情况下优于当前的最先进的。2. 相关工作域泛化(DG)[22]使用多个训练(即,源)域来学习可以推广到测试的模型(即,目标)数据来自不可见的域。最近出现了单域泛化(Single-DG),以解决更具挑战性但更现实的设置,其中在训练阶段只有一个源域可用,并且在看不见的目标域上测试学习的模型。现有的单DG方法通常采用对抗性数据增强。特别是,基于增强和自我监督的DG方法已被证明在单DG 设置 中是成功 的。其中 ,Representation Self-challenging(RSC)方法[10,28]惩罚在反向传播中产生高梯度的特征,以便所有特征都可以参与分类任务;JiGen [3]利用自监督学习策略进行数据增强,方法是将图像分割成图块,将它们混洗,并训练模型来执行主要任务(即,分类),并且同时预测混洗的瓦片的顺序;[6]引入了一种新的归一化层,可以自适应地重新缩放数据分布,以提高跨域的模型泛化性能。虽然这些方法实现了合理的在单DG情况下的性能,它们是为标准DG场景而设计的相比之下,已经提出了几种方法,专门处理的情况下,一个单一的源域。这些方法通过生成域外样本来扩展源数据,旨在覆盖目标数据的范围。特别是,ADA [27]是一种自适应数据增强方法,在每次迭代时将对抗性示例附加到源数据; M-ADA [24]遵循基于MAML的元学习方案,并使用Wasserstein自动编码器(WAE)通过扩大源域来学习鲁棒模型; ME-ADA [35]生成最大化分类器熵的样本,并利用元学习来逐步增加这些样本的训练域;[32]通过一堆随机初始化的卷积层改变模型输入的纹理和颜色来增加源数据;[29]通过合成来自与源图像互补的更多样化分布的图像来改进[32]。从本质上讲,上述针对单DG的对抗性然而,这可能不会像真正的域转移那样扩展源数据的分布,因为所得样本往往保持接近决策边界。相比之下正如我们的实验所示,这导致分类器4159联系我们i=1联系我们NexpACn我我2002年1月2日√p2βΣ实验XΣi=1这是一个不可见的目标域。3. 方法在本节中,我们首先定义本文中使用的问题和符号,然后详细讨论我们的CADA框架。CADA的主要目标是通过逐渐将增广样本推离相应的类质心来扩展源分布。同时,我们的目标是一个学习潜在的代表-是余弦相似度,其中p i和q i,i = 1,2,..., n,分别是向量v1和v2中的元素。角 中 心 损 失 : 受 [30]的 启 发 , 我 们 初 始 化 类 中 心C=c1,c2,.,通过从高斯分布N(0,1)中随机采样k个长度为d的向量,我们将AC损失计算为数据与它们所属的类中心之间的角余弦距离其被表示为n最大限度地提高不同类别之间的差距,从而增强了鲁棒性和普遍性,模型为此,我们引入了一个角中心损失,测量每个样本和其相应的类中心在潜在空间之间的测地线距离。然后,CADA以对抗的方式在两个任务之间迭代:通过最大化角中心损失来扩展源分布的辅助任务,以及通过最小化相同损失来创建紧凑集群的主要任务。3.1. 问题定义假设我们有一个源域Ds={(x1,y1),… (xn,yn)}n,其中xi表示第i次考试-L(X,Y,C)=1<$A(x,C[y])。(二)在训练过程中,模型学习将输入映射到具有到相应类中心的最小角余弦距离的特征向量。中心被迭代更新以使用AC损失来拟合数据。对抗性数据增强:通过迭代地更新每个输入样本并将其推离类质心来执行生成过程,从而旨在覆盖目标数据的跨度。 具体来说,我们复制输入X作为X′,并将X′中的像素视为可训练的部分。半径。在生成过程中,我们冻结了类中心和参数fe和fc。 然后我们最大化从分布Ps中提取样本,yi表示标签来自标签空间y 1的第i个样本,...,k,其中k是类的数量。目标域Dt由从分布Pt采样的数据组成,分布P t不同于Ps,但具有与源域相同的标签空间。单DG被定义为解决在单个源域上训练模型的监督学习问题,使得模型在不同的不可见域上表现得同样好。X′和C′之间的AC损耗,以更新X′中的像素使得它们远离相应的类中心。这促使X′表现出比X更新颖的特征。我们还使用X作为锚点,并最小化X和X′之间的均方误差,以保留X中的语义信息。这产生了更新X的损失,定义为:目标域。我们的模型,记为f,由一个有限元-"“真实提取器fe和分类器fc,由θe参数化,θc,分别。Lexp(X,X,Y,C)=Lmse(X,X)−Lac(X,Y,C)=||X − X′ ||2 −1<$A(x,C[y]).3.2. 中心感知域扩展一个自然的战略,以减轻域转移在一个单一的DG方法是产生不同的数据和incor,2Nii=1我(三)在培训过程中加以推广。根据这种直觉,CADA通过增强和推动数据远离其相应类的中心来扩展源域的分布。具体而言,我们引入了一个角中心损失(AC)来计算样本和其对应的类质心在潜在空间中的测地线距离。为此,我们使用定义为arccosD(v1,v2)这个过程重复几次迭代,最终增广样本X′asX′= argmin ′ L exp(X,X′,Y,C).(四)3.3. 主要任务优化根据[33],较大的类裕度提高了模型的分布外泛化能力Al-A(v1,v2)=、(1)π尽管优化交叉熵损失可以学习可分类的特征,但它并不能保证边缘是其中v1和v2是两个长度相同的向量,大[8]。 因此,我们进一步将交流损耗计算为:v1D(v1,v2)=·v22002年2月2日Σnpi qi、i=1=4160ni=1Q2我 我ni=1一个正则化项的标准交叉熵损失,以形成紧凑的集群在潜在的空间,使边缘班级之间扩大了。 这给了我们最后的损失,4161--i=1ES{}E←−←−− ∇←− − ∇更新网络参数θ=θe,θc和类中心C为L main(X,Y,C)= L ce(X,Y)+L ac(X,C)。(五)3.4. 总体目标函数我们采用两步迭代训练策略来优化增强样本和主任务。在中心感知域扩展步骤中,CADA在每个类中生成远离相应类中心的对抗样本。这是通过解决优化问题来最小Lexp,(6)X′所有的源样本。在主任务优化步骤中,目标是学习具有高类内紧凑性的判别表示,以扩大类间的裕度。这是通过优化问题来minL main.(七)θ,C我们的学习过程总结在算法1中。算法1CADA输入:源域数据集Ds={(xi,yi)}n;4. 实验在本节中,我们将我们的方法与几个基准单域泛化数据集上的现有DG和Single-DG基线进行模型仅使用来自一个域的数据进行训练,并在其余域上进行评估。为了与现有方法进行公平比较,在所有实验中,我们使用与基线方法所使用的相同的骨干网络。我们调整输入的大小以匹配不同的主干,并遵循与最先进方法相同的数据增强过程。评价指标:我们计算每个目标域的平均精度。我们还从 分 类 器 之 前 的 最 后 一 层 的 输 出 生 成 类 激 活 图(CAM)[36],以直观地显示我们的方法为了指示模型的泛化性能,我们显示了提取器输出的t-SNE[25]。我们还使用t-SNE来显示原始样本和更新样本之间的差异,以比较现有的对抗样本生成方法与我们的方法。4.1. 数据集Digits是一个基准单域泛化数据集,由MNIST[14],SVHN[23],MNIST-M[7],USPS[11]和SYN[7]组成。每个域包含从0到9的10类数字。我们在MNIST上训练模型作为源域,并在其他域上测试它的图像被调整为32×32像素,灰度图像被训练任务模型θ;训练时期数E;增强时期列表a;增强时期数Ta输出:学习模型参数θ根据标准高斯分布初始化类中心C对于e=1,. . . ,Edoife inathen对于D中的(X,Y),s做X′X对于t = 1,. . . ,T ado计算Lexp(X,X′,Y,C),公式如下:(3.2)X′X′Lexp(X,X′,Y,C)端Ds=Ds(X′,Y)端end if对于D中的(X,Y),s做计算Lmain(X,Y,C),公式如下:(3.3)θ θ Lmain(X,Y,C)端端4162×在MNIST和USPS中按通道复制。MNIST-C[21]是一个基准单DG数据集[32]。遵循[32]的相同设置,我们使用MNIST作为源域,并使用MNIST-C中的16种腐败类型作为目标域。所有图像的大小都调整为32 32,灰度图像被逐通道复制。CIFAR-10-C[9]通常用作单DG的基准源数据来自CIFAR- 10[13]训练集[13],测试数据来自CIFAR-10-C[9],由19种损坏类型组成,具有5个严重性级别(5表示最严重的损坏),应用于CIFAR-10测试集[13]。作为现有的单DG基线,对于我们的目标域,我们选择了15种严重级别为5的腐败类型,属于四大类别:噪音,模糊,天气和数字。CIFAR-100-C由与CIFAR-10-C相同的样本和破裂类型组成,分为100个类别。按照与[35]相同的设置,我们使用CIFAR- 100 [13]作为目标域的源数据,我们在所有严重级别中选择15种腐败类型。PACS[16]是一个DG基准数据集,包含来自四个领域(即,艺术绘画,卡通,照片和素描)。我们用这四个4163域作为源数据,并在另一个域上测试模型,形成四个不同的训练和测试域对。所有图像的大小都调整为224×224,并使用表1:数字的分类准确度(%)。粗体数字表示每列中的最佳性能。SVHN MNIST-M SYN USPS平均值多种数据增强方法。 包括农作物随机大小和纵横比,随机水平翻转,随机颜色抖动(0.4亮度,0.4对比度,0.4饱和度和0.4色调),图像灰度(0.1概率),以及使用ImageNet通道均值和标准差进行归一化。4.2. 实现细节下面,我们提供了每个基准数据集的实验设置和实现细节。数字。 我们使用[15] 的ConvNet架构(conv-pool-conv-pool-fc-fc-softmax ) , 每 个 卷 积 之 后 都 有ReLU。我们应用[32]的随机卷积来增加训练数据。ADAM优化器用于训练模型,学习率设置为1 e-4,批量大小为32。使用SGD优化器,更新中心的学习率为0.5。我们使用SGD优化器和学习率为1的每次迭代生成域对抗样本生成过程需要10次迭代才能完成。MNIST-C。我们使用与Digits相同的数据增强和训练设置。该模型仅在MNIST上进行训练,并在MNIST-C上进行测试。CIFAR-10-C 我们使用具有16层和深度为4的WideResNet [34]作为骨干。受[6]的启发,在骨干的每个残差块中,批量归一化层被替换为实例归一化层我们使用ADAM优化器训练骨干和分类器学习率被设置为1 e-3,并且在每个时期之后使用余弦退火调度器在0和1 e- 3之间进行调整中心使用SGD优化器更新,学习率为0.5。我们在每5个epoch的每次迭代中生成域对抗样本CIFAR-100-C 我们使用WideResNet[34],其中40层,深度为2作为骨干。骨干的每个残差块中的批归一化层被实例归一化层替换学习率为1 e- 2的SGD采用余弦退火调度算法在0和初始学习率之间调整学习率。这些中心是用SGD优化器更新的,学习率为0.5.领域对抗样本生成在每5个epoch的每次迭代中进行,学习率设置为0.5。PACS。根据现有的基线,我们使用预先训练的ResNet18作为骨干。我们使用ADAM作为优化器,初始学习率为1 e-5,betas为0.9和0.999,以及余弦退火时间表,以在训练期间周期性地调整范围0到初始学习率的学习率。我们用SGD优化器更新中心,学习率为5e-3。我们在每5个epoch的每次迭代中生成域对抗样本,RC[32]62.0787.8963.90 84.39 74.56我们的67.2778.6679.34 96.96 80.56学习率设定为0.5。训练批量大小为16。该模型在每个域上分别进行训练,并在所有其他域上进行评估和平均。4.3. 实验结果数字上的结果:表1显示了Dig-其基准数据集上的结果。我们将我们的方法与以下基线进行比较:(1)ERM , 基 线 使 用 交 叉 熵 损 失 进 行 训 练 ; ( 2 )CCSA[20],通过潜在特征正则化改进泛化;(3)d-SNE[31],使用随机邻域嵌入技术和修正的Hausdorff距离进行域自适应和域泛化;(4)JiGen[3],通过自我监督改进了遗传算法,并将预测分割图像的瓦片顺序作为辅助任务;(5)ADA[27],使用自适应数据增强方法,在每次迭代时将对抗性示例附加到源数据。(6)M-ADA[24],使用Wasserstein自动编码器和元学习模式改进ADA;(7)ME-ADA [35],通过生成可以最大化预测熵作为损失函数中的额外约束的对抗性示例来改进ADA;(8)RSDA[26],设计了一种基于图像变换的数据增强方法,该方法是当前模型最容易受到的;(9)L2 D[29],使用修改的随机卷积来增强数据,并基于类别信息调整样本对之间的互信息;以及(10)ASR[6],一种使用自适应批量归一化来拟合来自不同域的数据统计的新型归一化方法。我们的方法平均优于基线和SOTA方法。特别是,与现有的对抗性样本泛化方法ADA,M-ADA和ME-ADA相比,我们的方法在所有域上都大幅提高了性能。此外,委员会认为,ERM[12]27.8352.7239.65 76.94 49.29CCSA[20]25.8949.2937.31 83.72 49.05D-SNE[31]26.2250.9837.83 93.16 52.05JiGen[3]33.8057.8043.79 77.15 53.14[27]第二十七话 35.5160.4145.32 77.26 54.62M-ADA[24]42.5567.9448.95 78.53 59.49ME-ADA[35]42.5663.2750.39 81.04 59.32RSDA[26]47.481.562.083.168.5[29]第二十九话 62.8687.3063.72 83.97 74.46RSDA+ASR[6]52.880.864.582.470.14164表2:单域泛化准确度(%)。该模型在MNIST上进行训练,并在MNIST-C中的16种腐败类型上进行测试。[32] 第 二 十 二 届 中 国 国 际 纺 织 品 展 览 会 [35]92.5894.5391.62表3:单域泛化准确度(%)。这些模型在CIFAR-10上进行了训练,并在CIFAR-10- C上进行了测试,腐败严重程度为5。我们报告了4大类腐败的平均准确性:天气,模糊,噪音和数字。最好的表演用黑体字突出.表4:CIFAR-100上的单域泛化准确度(%)。最好的表演用粗体突出显示。这些模型在CIFAR-100上进行了训练,并在CIFAR-100-C上进行了测试,腐败严重程度为1至5。我们报告了4大类腐败的平均准确率:天气、模糊、噪音和数字。天气模糊噪声数字平均值电话:+86-10 - 65555560[27] 2019 - 05 - 15 00:00:00[35] 52.67 53.0 52.33 56.2 53.93联合王国[32] 57.88 57.48 57.38我们的59.81 60.19 59.66 59.96天气 模糊 噪声 数字平均值表5:PACS上的单域泛化精度模型在一个域上训练,在其他域上测试。RSC[10]63.9661.41 40.48 58.31 58.76Artpaint卡通素描照片平均。[27]第二十七话72.6767.04 39.97 66.62 61.58ERM[12]70.976.553.142.260.7M-ADA[24]75.5463.76 54.21 65.10 64.65RSC[10]73.475.956.241.661.8ME-ADA[35]74.4471.37 66.47 70.83 70.77[27]第二十七话71.5676.8452.3643.66 61.11[29]第二十九话75.9869.16 73.29 72.02 72.61ME-ADA[35]71.5276.8346.2246.32 60.22RC+BN[32]74.3979.79 76.0475.076.37RC[32]73.6874.8855.4246.77 62.69RC+IN[32]企业风险管理+ASR[6]ADA+ASR[6]78.76--80.75--81.95--82.85--81.2972.978.4RSC+ASR[6]76.7 79.3 61.654.6 68.1我们的76.33 79.08 61.5956.65 68.41我们79.9383.77 84.84 84.84 83.57在SVHN、SYN和USPS目标域上,我们的方法比基于随机卷积的方法L2D和RC表现得更好MNIST-C上的结果:我们将我们的方法与ERM基线以及SOTA单DG方法进行了比较,包括ADA [27],ME-ADA [35]和随机卷积[32]。表2中的结果表明,我们的方法在此数据集上优于ERM基线以及CIFAR-10-C的结果:在表3中,我们报告了CIFAR-10-C数据集上15种5级严重程度的腐败类型的结果。该表显示了4大类损坏的平均准确度:天气,模糊,噪音和数字以及所有损坏的平均准确度。从结果中可以看出,我们的方法优于现有的方法,在模糊,噪声和数字腐败类别的大幅度这证实了我们的模型我们的方法也优于SOTA ASR方法的大5%的利润率。CIFAR-100-C的结果:在表4中,我们报告了CIFAR-10-C数据集上4个主要腐败类别的平均准确度和所有15个腐败的总体准确度。我们的方法在所有腐败类型上都优于SOTA方法ADA[27],ME-ADA [35]和RC [32]。PACS上的结果:在表5中,我们展示了我们在PACS数据集上的结果,其中我们使用一个域进行训练,其余三个域进行测试。报告的数字是测试域的平均准确度。我们的方法在所有目标域上实现了与SOTA非常相似的结果,在Photo域上的结果略好。4.3.1消融研究角中心损失的影响:如方法部分所述,为了计算样本到类中心的距离,我们建议使用角距离,而不是使用[30]中的欧几里得距离。在表6中,我们通过比较在3个数据集(Digits、CIFAR-10-C和CIFAR-100-C)上使用中心损失与角中心损失获得的结果来验证这一选择。C.我们使用与实现细节中所述相同的训练设置。结果表明,Digits和CIFAR-10-C上的角中心损耗优于中心损耗1-2%,CIFAR-100-C上的角中心损耗优于中心损耗5%,证明改进幅度随着ERM[12]67.2856.73 30.02 62.30 54.08CCSA[20]67.6657.81 28.73 61.96 54.04D-SNE[31]67.9056.59 33.97 61.83 55.074165表6:中心损耗和我们的角中心损耗之间的比较。数字CIFAR-10-C CIFAR-100-C中心损失[30] 78.22 83.07 56.92交流损耗80.56 84.28 62.15表7:CIFAR-10-C的结果,通过在决策边界周围以不同方差进行采样来增加训练数据。主干是我们在实现细节中描述的s 0.1 0.25 0.5 1.5.10.我们79.7480.380.1780.1679.3377.8180.56目标域中的类增长。4.3.2可视化类激活图:图2显示了我们的方法和最先进的基于对抗生成的方法ME-ADA的类激活图[35]。这两种方法都在CIFAR-10数据集上训练,并在相同输入的15个损坏版本上进行测试图像表明,我们的方法专注于比ME-ADA更小的区域,描绘了相关的语义信息。从CIFAR-10-C的测试数据集中提取的特征的t-SNE可视化如图3所示。测试数据集由1000x15个数据点组成,这些数据点从15个损坏中的每一个中随机取样结果表明,与ME-ADA相比,我们的方法实现了更紧凑的聚类,类之间的界限更大。生成样本的分析我们使用t-SNE [25]来直观地分析图4(a)-(c)中生成样本的分布。浅蓝色的点显示了两类的分布。我们使用ME-ADA和我们的方法来更新来自同一个类的所有样本。更新后的示例以橙色显示。图4(a)显示,一些使用ME-ADA生成的样本发生了显着变化,并聚集在一起进入其他周围的类别(参见蓝色点周围的小橙色集群)。我们认为ME-ADA过于激进,因为它可能无法在更新阶段保留样本的区分信息。相比之下,我们的方法倾向于将样本重新定位在类之间的边界处,因此可以被认为是一种更好的方式来逐步扩展知识空间。决策边界抽样:我们将我们的方法与通过在类之间的边界生成样本来手动增强训练空间的方法进行了比较,如图4-c所示。我们使用与上一个视图中相同的类化,并通过采用分类器的类相对权重的元素方式来计算决策边界。然后,我们从N(0,1)中采样特征,并使用计算的均值和不同的方差对其进行变换表7显示,不同方差的效果不一致,并且比我们提出的方法表现更差。5. 结论我们已经介绍了一种通过使用类感知对抗样本来增强训练数据来提高模型的泛化性和鲁棒性的方法。我们已经假设,一个模型的泛化能力可以与它对位于类的决策边界附近但远离类中心的扰动样本的鲁棒性有关。受此启发,与现有的通过最大化softmax分类误差来生成对抗样本的领域对抗增强方法相比,我们提出了一种角度中心损失来帮助生成接近相应类别边界的对抗样本我们认为这是一种更直接的方法,可以用不同的样本扩展源数据分布。对抗性数据增强过程与类边缘最大化同时执行,以鼓励类内紧凑性。我们已经进行了广泛的实验,以证明我们的方法在几个基准数据集的有效性。引用[1] Mahsa Baktashmotlagh,Mehrtash Harandi,and MathieuSalzmann.用于视觉域适应的分布匹配嵌入。Journal ofMachine Learning Research,17:[2] Mahsa Baktashmotlagh , Mehrtash T Harandi , Brian CLovell,and Mathieu Salzmann.基于域不变投影的无监督域在IEEE计算机视觉国际会议论文集,第769-776页[3] 法比奥·M·卡卢奇、安东尼奥·德诺森特、西尔维亚·布奇、巴尔巴拉·卡普托和塔蒂亚娜·托马西。解决拼图游戏的领域泛化。IEEE/CVF计算机视觉和模式识别会议,2019年。[4] 陈智,李晶晶,罗雅丹,黄紫,杨阳。Canzsl:Cycle-consistent adversarial networks for zero-shot learning fromnatural language.在IEEE/CVF计算机视觉应用冬季会议(WACV)中,第874-883页[5] Zhi Chen,Yadan Luo,Ruihong Qiu,Sen Wang,ZiHuang,Jingjing Li,and Zheng Zhang.广义零镜头学习的 语 义 解 缠 。 IEEE/CVF 计 算 机 视 觉 国 际 会 议(ICCV),2021年。[6] Xinjie Fan , Qifei Wang , Junjie Ke , Feng Yang ,Boqing Gong,and Mingyuan Zhou.单域推广的逆向自适应规范化。在IEEE/CVF计算机视觉和模式识别会议论文集,第8208-8217页4166图2:我们的方法和ME-ADA的类激活图之间的比较在输入的所有15个损坏版本上,我们的方法专注于比ME-ADA更小的区域,描绘相关的语义信息。(a) (b)我们的图3:从CIFAR-10-C的测试数据集中提取的特征的t-SNE(a)ME-ADA;(b)我们的方法。(a)ME-ADA(b)我们的(c)边界抽样图4:t-SNE图表示相同的两个类别集群(浅蓝色和深蓝色)。(a)-(b)ME-ADA和我们的方法的比较。我们从左边的聚类(浅蓝色)中采样一些数据点,并使用相应的方法来更新它们。橙色点显示更新后样本的分布。(c)数据点(橙色)在两个类之间的决策边界周围随机采样。4167[7] Karol Gregor和Yann LeCun。学习稀疏编码的快速近似。第27届国际机器学习会议论文集,第399-406页,2010年。[8] Yiwen Guo和Changshui Zhang。大幅度学习的最新进展CoRR,abs/2103.13598,2021。[9] Dan Hendrycks和Thomas Dietterich基准神经网络的鲁棒性 常 见 的 腐 败 和 扰 动 。 arXiv 预 印 本 arXiv :1903.12261,2019。[10] Zeyi Huang , Haohan Wang , Eric P Xing , and DongHuang.自我挑战改进了跨域泛化。2020年欧洲计算机视觉会议[11] 乔纳森·赫尔。一个用于手写文本识别研究的数据库。IEEE Transactions on pattern analysis and machineintelligence,16(5):550[12] 弗拉基米尔·科尔钦斯基经验风险最小化和稀疏恢复问题中的Oracle不等式。数学笔记,2011。[13] 亚历克斯·克列日夫斯基和杰弗里·辛顿从微小的图像中学习多层特征。技术报告,2009年。[14] Yann LeCun、Bernhard Boser、John S Denker、DonnieHenderson 、 Richard E Howard 、 Wayne Hubbard 和Lawrence D Jackel。应用于手写体邮政编码识别的反向传播。神经计算,1(4):541[15] Yann LeCun、Bernhard Boser、John S Denker、DonnieHenderson 、 Richard E Howard 、 Wayne Hubbard 和Lawrence D Jackel。应用于手写体邮政编码识别的反向传播。神经计算,1(4):541[16] DalLi,Yongxin Yang,Yi-Zhe Song,and Timothy MHospedales. 更 深 、 更 广 、 更 艺 术 的 领 域 概 括 。IEEEInternational Conference on Computer Vision ,2017。[17] Mingsheng Long , Yue Cao , Zhangjie Cao , JianminWang,and Michael I Jordan.使用深度适应网络的可转移表示学习。IEEE Transactions on Pattern Analysis andMachine Intelligence,41(12):3071[18] Mingsheng Long , Zhangjie Cao , Jianmin Wang , andMichael I Jordan.条件对抗域适应。神经信息处理系统的进展,31,2018。[19] Yadan Luo , Zijian Wang , Zi Huang , and MahsaBaktashmot- lagh.用于开集域自适应的渐进图学习。国际机器学习会议,第6468-6478页。PMLR,2020年。[20] Saeid Motiian 、 Marco Piccirilli 、 Donald A Adjeroh 和Gianfranco Doretto。统一的深度监督域自适应和泛化。在IEEE国际计算机视觉会议论文集,第5715-5725页,2017年。[21] 诺曼·穆和贾斯汀·吉尔默 Mnist-c:计算机视觉的鲁棒性基准。arXiv预印本arXiv:1906.02337,2019。[22] Krikamol Muandet,David Balduzzi,and Bernhard Scho¨l k opf.通过变量特征表示的域泛化在2013年国际机器学习会议[23] Yuval Netzer , Tao Wang , Adam Coates , AlessandroBis-sacco,Bo Wu,and Andrew Y Ng.使用无监督特征学习读取自然图像中的数字。2011年。[24] 乔逢春,龙昭,奚鹏。学习学习单域泛化。IEEE/CVF计算机视觉和模式识别会议,2020年。[25] Laurens Van der Maaten和Geoffrey Hinton使用t-sne可视化 数 据 。 Journal of Machine Learning Research , 9(11),2008.[26] 里卡多·沃尔皮和维托里奥·穆里诺。解决模型对图像变换集上分布变化的脆弱性。在IEEE/CVF计算机视觉国际会议集,第7980-7989页[27] Riccardo Volpi 、 Hongseok Namkoong 、 Ozan Sener 、John Duchi、Vittorio Murino和Silvio Savarese。通过对抗性数 据增强推广到 看不见的领 域。arXiv预印本arXiv:1805.12018,2018.[28] Haohan Wang,Songwei Ge,Eric P Xing,and ZacharyC Lipton.通过惩罚局部预测能力来学习鲁棒的全局表示。arXiv预印本arXiv:1905.13549,2019。[29] Zijian Wang,Yadan Luo,Ruihong Qiu,Zi Huang,andMahsa Baktashmotlagh.学会对单一领域进行多样化的概括.在IEEE/CVF国际计算机视觉会议集,第834[30] Yandong Wen , Kaipeng Zhang , Zhifeng Li , and YuQiao.一种用于深度人脸识别的判别式特征学习方法欧洲计算机视觉会议,第499-515页。施普林格,2016年。[31] XiangXu 、 XiongZhou 、 RagavVenkatesan 、Gurumurthy Swaminathan和Orchid Majumder。d-sne:使用随机邻域嵌入的域自适应。IEEE/CVF计算机视觉和模式识别会议,2019年。[32] Zhenlin Xu,Deyi Liu,Junlin Yang,Colin Raffel,andMarc Niethammer.通过随机卷积进行鲁棒和可推广的视觉表示学习。arXiv预印本arXiv:2007.13003,2020。[33] 杨耀青,拉吉夫·卡纳,于耀东,阿米尔·戈拉米,库尔特·科泽,约瑟夫·E.Gonzalez,Kannan Ramchandran,and Michael W.马洪尼学习模型中的边界厚度和鲁棒性。In Hugo Larochelle,Marc[34] Sergey Zagoruyko和Nikos Komodakis广泛的残余网络。arXiv预印本arXiv:1605.07146,2016。[35] 赵龙、刘婷、奚鹏、迪米特里斯·梅塔克斯。最大熵对抗性数据增强,用于改进泛化和鲁棒性。在神经信息处理系统,2020。[36] Bolei Zhou , Aditya Khosla , Agata Lapedriza , AudeOliva,and Antonio Torralba.学习深度特征以区分本地化。2016年在IEEE计算机视觉和模式识别会议上发表
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM动力电池数据管理系统源码及数据库详解
- R语言桑基图绘制与SCI图输入文件代码分析
- Linux下Sakagari Hurricane翻译工作:cpktools的使用教程
- prettybench: 让 Go 基准测试结果更易读
- Python官方文档查询库,提升开发效率与时间节约
- 基于Django的Python就业系统毕设源码
- 高并发下的SpringBoot与Nginx+Redis会话共享解决方案
- 构建问答游戏:Node.js与Express.js实战教程
- MATLAB在旅行商问题中的应用与优化方法研究
- OMAPL138 DSP平台UPP接口编程实践
- 杰克逊维尔非营利地基工程的VMS项目介绍
- 宠物猫企业网站模板PHP源码下载
- 52简易计算器源码解析与下载指南
- 探索Node.js v6.2.1 - 事件驱动的高性能Web服务器环境
- 找回WinSCP密码的神器:winscppasswd工具介绍
- xctools:解析Xcode命令行工具输出的Ruby库
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功