没有合适的资源?快使用搜索试试~ 我知道了~
1用于无监督领域自适应Woong-GiChang1,2Tackgeun You1,2Seonguk Seo1,1Suha Kwak2BohyungHan11 Computer Vision Lab.,ECE ASRI,韩国2计算机视觉实验室,CSE,POSTECH,韩国摘要我们提出了一种基于深度神经网络中特定领域批量归一化的无监督领域自适应框架。我们的目标是通过专门化卷积神经网络中的批量归一化层来适应这两个领域,同时允许它们共享所有其他模型参数,这是通过两阶段算法实现的。在第一阶段,我们使用外部无监 督 域 自 适 应 算 法 ( 例 如 , MPEG4 [27] 或 CPUA[14])估计目标域中示例的伪标签-集成了提议的特定于域的批量归一化。第二阶段使用源和目标域的多任务分类损失来学习最终模型。请注意,这两个域在两个阶段中都有单独的批规范化层。我们的框架可以很容易地结合到基于深度神经网络的领域自适应技术中,并具有批量规范化层。我们还提出,我们的方法可以扩展到多个源域的问题该算法在多个基准数据集上进行了评估,并在标准设置和多源域适应场景中达到了最先进的精度。1. 介绍无监督领域自适应是一种学习框架,用于将从具有大量注释训练示例的源领域学习到的知识转移到仅具有未标记数据的目标领域。这个任务是具有挑战性的,由于域转移问题,这是一种现象,源和目标数据集具有不同的特性。域转移在现实世界的问题中很常见,为了训练模型的广泛应用,应该小心处理。无监督域自适应旨在学习用于处理该问题的鲁棒模型,并且近来越来越流行,因为它可以拯救依赖于具有有限多样性和多样性的数据集的视觉识别任务。*表示同等贡献。无监督领域自适应的最新进展归功于深度神经网络的成功。传统的基于浅层学习的领域自适应技术使用具有适当损失函数的深度神经网络进行了重构。深度网络的强大表示能力-覆盖了以前方法的有效性,并促进了全新算法的开发。基于深度神经网络的无监督领域自适应研究[3,4,10,14,23,27,30],近年来我们见证了显着的性能改进。许多现有的无监督域自适应技术[3,4,14,23,27]的缺点之一是源域和目标域共享整个网络进行训练和预测。两个域之间的共享组件是不可避免的,因为两个域中有一些共同的东西;我们经常需要依赖源域中的信息来学习网络适应未标记的目标域数据。然而,我们认为,更好的泛化性能可以通过分离特定领域的信息,从领域不变的一个,因为这两个领域显然有不同的charteris- tics是不兼容的一个单一的模型。为了分离用于非监督域自适应的特定于域的信息,我们提出了一种用于深度神经网络的新型构建块,称为特定于域的批量归一化(DSBN)。DSBN层由两个批量归一化(BN)分支组成,每个分支专门负责一个域。DSBN使用BN参数捕获特定于域的信息,并使用参数将特定于域的数据转换为域不变的表示由于这个想法是通用的,因此DSBN普遍适用于具有BN层的各种深度神经网络,用于无监督域自适应。此外,它可以很容易地扩展为多源域适应场景。基于这一主要思想,我们引入了一个基于DSBN的两阶段框架来进行无监督域自适应,其中我们的网络首先在目标域中生成未标记数据的伪标签,然后使用伪标签学习一个完全具体地第一73547355阶段估计目标域数据的初始伪标签通过现有的无监督域自适应网络纳入DSBN。在第二阶段中,使用来自源域和目标域的数据在完全监督下训练具有DSBN层的多任务分类网络为了进一步提高准确率,我们对第二阶段的训练进行了改进,并对目标领域中的示例的标签进行了细化。我们的主要贡献总结如下:我们提出了一种新的基于DSBN的无监督域自适应框架,这是一种适用于各种深度神经网络模型进行域自适应的通用我们介绍了一种两阶段的学习方法与DSBN包括伪标签估计,其次是多任务分类,这是自然地集成到现有的无监督域自适应方法。我们的框架提供了一个原则性的算法,无监督域适应多个来源,通过其简单的扩展。我们通过将我们的框架与两种最新的领域自适应技术相结合,在Office-31和VisDA-C数据集等标准基准上实现了最先进的性能。我们的论文的其余部分有以下组织。我们首先在第2节中回顾了无监督域自适应方法,然后在第3节中讨论了两个最近的骨干模型来集成DSBN。第4节介绍了DSBN的主要思想,第5节描述了如何将我们的框架集成到现有的无监督域自适应技术中。我们在第6节中展示了实验结果,并在第7节中以简短的评论结束本文。2. 相关工作本节回顾了与我们的方法相关的非监督域自适应的主流方法2.1. 领域不变学习学习域不变表示对于无监督域自适应的成功至关重要,并且许多现有方法试图全局或局部地对齐源域和目标域之间的数据分布。全局对齐技术包括最大平均离散度(MMD)[1,28],中心矩离散度(CMD)[29],Wassterstein距离[21]和相关对齐(CORAL)[22],其中一些使用深度神经网络重新制定[12,23,28]。此外,对抗性学习已 被 广 泛 用 于 全 局 域 对 齐 。 领 域 对 抗 神 经 网 络(DANN)[3]使用域对抗损失学习域不变表示,而对抗判别域自适应(ADDA)[24]将对抗学习与判别特征学习相结合。联合自适应网络(JAN)[12]将对抗学习与MMD [1]相结合,通过跨域对齐多个特定领域层的联合分布。局部对齐方法通过跨源和目标域对齐相同类的示例来 学 习 域 不 变 模 型 。循 环 一 致 性 对 抗 域 适 应(CyCADA)[4]引入了循环一致性损失,这强制模型确保正确的语义映射。条件域自适应网络(CDAN)[10]根据分类器预测中传达的判别信息来调节对抗2.2. 特定领域学习这类方法学习特定领域的信息以及用于领域适应的领域不变信息。Domain Separation Network(DSN)[2]通过将特定于域的网络组件与共享组件分离来学习特征表示。协作和广告网络(CAN)[30]提出了一种新的损失函数,该函数强制网络的低级别层具有高域特异性和低域不变性,同时使高级别层具有相反的属性。批量归一化参数已被用于在无监督域自适应场景中对特定于域的信息进行建模。AdaBN [7]提出了一种使用目标样本重新估计批量归一化统计的后处理方法。[15]中使用的域对齐层通过将源和目标分布对齐到参考高斯分布来处理域偏移问题。还有,[13]学习自动发现多个潜在源域,用于对齐目标和源分布。请注意,我们的算法更灵活,更有效,因为它只使用批量归一化的仿射参数来学习特定于域的属性,并且除此之外的所有网络参数都用于域不变表示。2.3. 使用伪标签学习目前的算法通常在目标领域估计伪标签,并直接为目标领域学习特定领域的模型。为了获得伪标签,移动语义传输网络(MPENN)[27]利用语义匹配和域对抗损失,而类预测不确定性对齐(CPUA)[14]采用类分 数 作 为 对 抗 学 习 的 特 征 。 非 对 称 三 训 练 网 络(ATN)[18]和协作和对抗网络(CAN)[30]基于多个模型的共识估计伪标签我们的框架还利用伪标签来学习····7356XXL∈S不不S˜˜特定领域的模型。与现有的方法相比,我们的框架估计更可靠的伪标签,因为特定领域的信息是有效地捕获特定领域的批量归一化。它们的总损失函数可以写为L=Lcls(XS)+λLda(XS,XT),(4)哪里3. 预赛在无监督域自适应中,我们给出两个Lcls1(XS)=nΣ(x,y)∈XSWS(x,y)<$(F(x),y),(5)数据集;XS是标记的源域,XT是L达(XS1,XT)=n萨夫·S(x,y)≠(D(F(x),1)目标域的未标记数据集,其中nS和nT分别为(x,y)∈XS分别注意S和T我们的目标是通过转移从源领域学习到的分类知识来对目标领域中的例子进行分类+1nT x∈XT w T(x)≠(D(F(x))),0).(六)基于全面监督。本节将详细讨论两种用于集成特定于域的批处理规范化技术的最先进方法。3.1. 移动语义迁移网络MSTN [27]提出了一种语义匹配损失函数,用于基于未标记的目标域样本的伪标签来总损失函数L的形式定义如下:L=Lcls(XS)+λLda(XS,XT)+ λLsm(XS,XT).(一)分类损失Lcls(XS)是源数据集的交叉熵损失,达使一个网络对[3]中讨论的示例的域成员身份感到困惑。语义匹配损失跨域对齐相同类的质心。注意,应该估计伪标签以计算语义匹配损失。直观地,等式中的损失函数(1)鼓励两个域具有相同的分布-注意,F(·)是分类网络,F(·,·)表示跨中心损失,D(·)是域判别器。4. 特定于域的批处理规范化本节简要回顾批处理归一化(BN),与我们的DSBN进行比较,然后介绍DSBN及其用于多源域适配的扩展。4.1. 批次归一化BN [5]是深度网络中广泛使用的训练技术。BN层对每个通道维度的N个示例的小批量内的激活进行白化,并使用仿射参数γ和β来变换白化的激活。用每个通道中的xRH×W×N激活表示,BN表示为BN(x[i,j,n];γ,β)=γ·x∈[i,j,n]+β,(7)哪里x[i,j,n] −µ特别是通过增加对抗性和语义匹配损失术语。因此,学习网络基于x[i,j,n]=公司简介.(八)损失函数可以应用于目标域中的实例。小批量内激活的均值和方差μ和σ,计算如下:3.2.类别预测不确定性对齐CPUA [14]是一种非常简单的方法,µ=nΣi,jx[i,j,n]、(9)N·H·W跨域对齐类概率CPUA ad-服装类不平衡问题在这两个领域,并介绍σ2=ΣnΣi、j(x[i,j,n]−µ)2.(十)一个类加权损失函数来利用类先验。令pS(c)=nc/nS是具有类标签c的源样本的分数,并且pT(c)=nc/nT是具有伪标签c的目标样本的分数。 n c表示{x∈XT|y(x)=c},其中SΣ7357˜不y(x)= argmaxi∈CF(x)[i]. 然后类的权重为每个域分别由下式给出:maxy′pS(y′)N·H·W而λ是一个小常数以避免被零除。在训练过程中,BN通过具有更新因子α的指数移动平均来估计整个动作的均值和方差,用μ<$和σ<$表示。形式上,给定第t个小批量,均值和方差由下式给出:µ<$t+1=(1−α)µ<$t+αµt,(11). σ<$t+1<$2=(1−α)。σt=2+α。σt≥2。(十二)和wS(x,y)=(二)pS( y)′在测试阶段,BN使用估计的均值和方差来白化输入激活。请注意,共享w(x)=maxy′p<$T(y).(三)p<$T(y<$(x))如果域偏移是显著的,则源域和目标域的均值和方差都是不合适的。7358联系我们··Σ。LDDDDDdd图1.BN和DSBN之间的差异图示DSBN层由批归一化层中的两个分支组成-一个用于源域(S),另一个用于目标域(T)。每个输入示例根据其域选择分支之一。在具有DSBN层的域自适应网络中,除了DSBN的参数之外的所有参数跨两个域共享,并且有效地学习两个域中共同的信息,同时通过DSBN层的域特定BN参数有效地捕获域特定属性注意,DSBN层可以插入具有BN层的任何无监督域自适应网络中4.2. 特定于域的批处理规范化DSBN通过使用为每个域保留的多组BN [5]来实现。图1说明了BN和DSBN之间在形式上,DSBN分配每个域标签dS,T的域特定仿射参数γd和βd。 设xdRH×W×N表示每个通道处属于域标签d的激活,则DSBN层可以写为DSBNd ( xd[i , j , n];γd , βd ) =γd·xd[i , j ,n]+βd, (13)其中xd[i,j,n] −µd可以通过利用从给定域捕获的统计量和学习的参数来有效地去除DSBN很容易插入现有的深度神经网络中进行无监督域自适应。现有分类网络F()可以通过用DSBN层替换所有BN层并使用具有域标签的数据训练整个网络来转换为域特定网络域特定网络由Fd()表示,其根据域变量d∈ {S,T}专用于源域或目标域。4.3. 多源域自适应的扩展DSBN很容易扩展为多源无监督域自适应添加更多的领域分支xd[i,j,n]=2 ,(14)和σd+σ d此外,还提出了一种新的多源域损失函数自适应简单地由来自所有源域的损失的总和定义如下:µd=nN·H·W|DS|L=1Lcls (XSi)+L对齐 (XSi,XT),(19)σ2=ΣnΣi、j(xd[i,j,n]−µd)2.(十六)|我|iN· H· W其中DS={XS1,XS2,. }是一组源域,在训练期间,DSBN通过具有更新因子α的指数移动平均分别估计每个域的激活的均值和方差,更新因子α由下式给出:µ<$t+1=(1−α)µ<$t+αµt,(17). σ<$t+1<$2=(1−α)。σt=2+α。σt≥2。(十八)在DSBN的测试阶段,每个域的估计均值和方差用于相应域中的示例我们期望DSBN通过估计批量统计数据和分别学习每个域的仿射参数我们认为,DSBN允许网络更好地学习域不变特征,因为网络中的域特定信息,(15)7359对齐可以是用于对齐源和目标的域.其余的训练过程与单源域自适应情况相同。5. 使用DSBN进行域自适应DSBN是一种用于无监督域自适应的通用技术,可以集成到基于深度神经网络的各种算法中。我们的框架分两个阶段训练深度网络进行无监督的自适应在第一阶段,我们训练一个现有的无监督域自适应网络来生成目标域数据的初始伪标签。第二阶段使用源域中的地面实况和目标域中的伪标签作为监督来学习两个域的最终模型,其中,7360SCLS不··不不不不不不1+exp(−γ·p)不D联系我们伪不哪里Lcls(XS)=1(x,y)∈XSn(F2(x),y),(21)Lpseudo(XT)=x∈XTf(F2(x),y′). (二十二)由方程式在公式(21)和(22)中,y(i)是交叉熵损失,y′表示分配给目标域示例x∈ XT的伪标签。伪标签y′由F1初始化,并且progress-图2.第二阶段培训概述。为了对目标域样本使用中间伪标签,我们使用由F2细化如下:在第一阶段训练的网络,F1(x),作为',1 2,不第二阶段。在此阶段,网络仅在两个域中使用分类损失进行训练。y= argmaxc∈C(1−λ)FT(x)[c]+λFT(x)[c]、 (二十三)目标域在训练过程中逐步细化。这两个阶段的网络都包含DSBN层,以更有效地学习域不变表示,从而更好地适应目标域。为了进一步提高准确性,我们可以执行额外的迭代-其中Fi(x)[c]指示类别c由Fi和λ给出,λ是在训练期间从0到1逐渐变化的权重因子这种方法可以被认为是一种自我训练,因为F2在训练时参与伪标签生成在训练的早期阶段,我们在F1给出的初始伪标签上放置更多权重,因为F2的预测可能不可靠。T T第二阶段训练的步骤,其中伪标签使用前一次迭代中的结果进行更新。本节的其余部分将详细介绍我们使用DSBN的两阶段训练方法。5.1. 第1阶段:培训初始伪贴标人由于我们的框架是通用和灵活的,任何不确定的,然后,权重λ逐渐增加,并且在最后阶段在训练过程中,伪标签完全依赖于F2。我们遵循[3]为了抑制潜在的噪声伪标签;自适应因子λ逐渐增加λ=2−1,γ= 10。目标域图像被更准确地识别,F2比F1一般,因为F2利用合理的初始T T T可以采用受监督的域自适应网络来估计,F1给出的用于训练的伪标签,而F1仅依赖于T T估计目标域数据的初始伪标签,只要它具有BN层。在本文中,我们选择了两个最先进的模型 作 为 初 始 伪 标 签 生 成 器 : MPERT [27] 和 CPUA[14]。如第4.2节所述,我们用DSBN替换它们的BN层,以便它们更有效地学习域不变表示然后,网络经训练的初始伪标签生成器由F1表示。5.2. 第二阶段:使用伪标签进行在第二阶段,我们利用来自两个域的数据及其标签来利用丰富的域不变表示,并在完全监督的情况下为两个域训练最终模型。该网络使用两个分类损失进行训练-一个用于具有地面真实标签的源域,另一个用于具有伪标签的目标域-并且所得网络由F2表示,其中dS和T . 总损失函数由来自两个域的两个损失项的简单求和给出,如下所示:L=Lcls(XS)+Lcls(XT)(20)关于域对齐的弱信息。 是很自然采用F2估计更准确的初始伪标签,以进一步提高精度。因此,我们迭代地进行第二阶段过程,其中使用先前迭代中模型的预测结果更新初始伪标签实验结果表明,这种迭代方法可以有效地提高目标域的分类精度。6. 实验我们提出的实证结果来验证所提出的框架,并比较我们的方法与国家的最先进的域适应方法。6.1. 实验设置我们讨论了用于训练和评估的数据集,并介绍了实现细节,包括超参数设置。数据集我们在实验中使用了三个数据集:VisDA-C[16]、Office-31 [17]和TMS-Home [26]。VisDA-C是用于2017年视觉领域适应挑战赛的大规模基准数据集。它包括两7361××(1+αp)β图3. 每个数据集的示例图像。(a)两个域的VisDA-C数据集图像,(b)三个域的Office-31数据集图像,(c)四个域的X-Home数据集图像。表1.使用ResNet-101主干网络的VisDA-C验证数据集上的多种算法的分类性能(%)结果清楚地表明,我们的两阶段学习框架与DSBN是有效的,以提高准确性。方法Aero自行车总线车马刀电机人植物滑冰火车卡车Avg源仅55.153.361.959.180.617.979.731.281.026.573.58.552.4DAN [9]87.163.076.542.090.342.985.953.149.736.385.820.761.1DANN [3]81.977.782.844.381.229.565.128.651.954.682.87.857.4丹麦[20]87.060.983.764.088.979.684.776.988.640.383.025.871.9ADR [19]87.879.583.765.392.361.888.973.287.86085.532.374.8Moment(reproduced)89.349.574.367.690.116.693.670.186.540.483.218.565.0与DSBN(第1阶段)90.378.475.053.590.142.885.576.586.764.181.543.672.3与DSBN(第1阶段和第2阶段)94.786.776.072.095.275.187.981.391.168.988.345.580.2CPUA(转载)90.753.479.659.987.918.794.561.690.451.381.829.366.6与DSBN(第1阶段)91.177.284.049.590.737.987.876.685.660.978.143.971.9与DSBN(第1阶段和第2阶段)93.083.679.955.894.720.689.780.291.180.884.859.776.2域-合成和真实-并具有来自MS-COCO [8]数据集的12个常见对象类的152,409个合成图像和55,400个真实图像Office-31是域适应的标准基准,它由31个类别的三个不同域组成:亚马逊(A)有2,817张图片,网络摄像头(W)有795张图片,数码单反相机(D)有498张图片。[26]有四个域:艺术(Ar)有2,427张图片,剪贴画(Cl)有4,365张图片,产品(Pr)有4,439张图片,现实世界(Rw)有4,357张图片。每个域包含65类常见的日常对象。我们采用[3]中介绍的完全转导协议来评估数据集上的框架。实现细节在[3,20]之后,作为我们框架的骨干网络,我们采用ResNet-101用于VisDA-C数据集,ResNet-50用于Office-31和E-Home数据集。所有网络都有BN层,并在ImageNet上进行了预训练。为了比较BN和DSBN层之间的绝对差异,我们为每个域构造小批量并分别转发它们。批量设置为40,这对于所有实验都是相同我们使用Adam优化器[6],β1= 0。9,β2= 0。999 我们设置初始学习率η0= 1。0 10−4和5。1级和2级分别为0 10−5如[3]中所建议的,学习率由公式调整,ηp=η0,其中α= 10,β= 0. 75,并且p表示从0到1线性变化的训练进度。优化器的最大迭代次数设置为50,000。6.2. 结果我们提出了基于单源和多源域适应的标准基准数据集上的实验结果。VisDA-C表1量化了我们采用MPEG4和CPUA作为其初始伪标签生成器的方法的性能,并将其与VisDA-C数据集上的在表中我们提出的方法大大提高了准确性和一致性,7362表2. Office-31数据集(ResNet-50)上的分类准确率(%)。* 原始论文报告AlexNet的平均准确率为79.1%。原始论文报告ResNet-50的平均准确率为87.9%。仅方法源A →W73.5W →A59.8A →D76.5D →A56.7W →D99.0D →W93.6平均值76.5[25]第二十五话DAN [9]76.080.563.762.877.578.667.063.698.299.694.897.179.580.4RTN [11]84.564.877.566.299.496.881.6DANN [3]79.363.280.765.399.697.380.9JAN [12]86.070.785.169.299.796.784.6iCAN [30]92.569.990.172.1100.098.887.2CDAN-M [10]93.170.393.471.0100.098.687.7[27]第二十七话91.365.690.472.7100.098.986.5与DSBN(第1阶段)92.573.190.672.2100.098.587.8与DSBN(第1阶段和第2阶段)92.774.492.271.7100.099.088.3CPUA(转载)[14]†90.171.686.871.3100.098.686.4与DSBN(第1阶段)92.372.788.872.0100.099.187.5与DSBN(第1阶段和第2阶段)93.373.990.872.7100.099.188.3表3.在Office-31数据集上使用MPEG4作为基线的多源场景中的分类准确率(%)(ResNet-50)单A→W D→W A→D W→D W→AD→A BN91.398.990.4100.065.672.7DSBN 92.5 98.5 90.6 100.0 73.1 72.2合并(A+D)→W(A+W)→D(W+D)→ABN 99.6 99.6 71.3DSBN 99.1 99.6 73.2分离A,D→W A,W→D W,D→A BN99.999.8 69.9DSBN99.9 100.0 75.6表4.在多源场景中,使用MSPOT作为基线的MSPOT-Home数据集的分类准确率(%)(ResNet-50)单一Ar→Rw Cl→RwPr→RwBN76.4 69.3 76.9DSBN 75.4 70.4 77.7合并(Ar+Cl+Pr)→RwBN 81.2DSBN 82.3分离Ar、Cl、Pr→Rw BN 81.4DSBN83.0通过将DSBN应用于基线模型,并在与MSTO结合时实现最先进的性能[27]。还请注意,我们的模型可靠地识别硬类,如刀,人,溜冰鞋,卡车。Office-31 表 2 显 示 了 我 们 在 Office-31 数 据 集 上 使 用MPEG4和CPUA的方法的总体得分。在这两个阶段训练的DSBN模型实现了最先进的性能,并始终优于两个基线模型。表2还表明,我们的框架可以应用到当前的域自适应算法成功,大大提高了性能。表3和表4显示了多个源域分别在Office-31数据集和ESP-Home数据集 为了将多源与单源域适配进行比较,我们在表的顶部将单源结果报告为“Single“,并附加两个不同的多源场景:“合并”和“分离”。合并意味着来自多个源域的数据被组合并构造一个新的更大的源域数据集,而分离则表示每个源域被单独考虑 在分离的情况下,我们总共有|DS|+1域和相同网络中DSBN分支的数量。虽然当目标任务很容易时,BN和DSBN之间存在边际性能增益,但我们的模型在所有设置下都始终优于特别地,对于表3上的任务“A”的硬域适配这一结果意味着DSBN在多源域适应任务中也具有优势。请注意,分离的情况并不总是比合并的情况下,没有-出DSBN。6.3. 分析烧蚀研究我们对我们的框架进行烧蚀实验,以分析DSBN与BN相比的效果。表5总结了VisDA-C数据集上的消融结果,使用MPEG4和CPUA作为基线架构,其中表中的最后一列显示了第二阶段训练相对于仅第一阶段训练结果的准确度增益。我们测试了两阶段训练的不同训练程序的结果直接表明,DSBN在这两个训练过程中起着至关重要的作用。另一个重要的一点是,第二阶段的训练与DSBN提高性能-7363表5.VisDA-C验证数据集上批次归一化变化组合的消融结果(ResNet-101),其中是指第二阶段训练相对于仅来自第一阶段训练的结果的精度增益基线阶段1阶段2Aero自行车总线车马刀电机人植物滑冰火车卡车Avg∆BNBN81.248.777.875.390.24.694.473.591.132.585.35.963.4-1.6Mingdao DSBNBN87.467.777.262.392.717.894.474.592.563.784.438.371.1-1.2BNDSBN92.870.378.476.993.314.992.781.791.980.285.020.373.2+7.2DSBNDSBN94.786.776.072.095.275.187.981.391.168.988.345.580.2+7.9BNBN88.943.969.868.890.89.594.046.092.149.282.824.863.4-2.8CPUADSBNBN89.353.677.954.291.716.193.774.391.658.479.652.469.4-2.6BNDSBN91.166.079.368.892.618.591.273.191.365.780.237.971.3+4.7DSBNDSBN93.083.679.955.894.720.689.780.291.180.884.859.776.2+4.3表6.在VisDA-C数据集上迭代学习的分类准确率(%),使用MPEG4作为基线。(ResNet-101)第一阶段第二Iter 1 Iter 2 Iter 3 Iter 472.3 80.2 81.4 82.282.7图4.使用BN(左)和DSBN(右)训练的ResNet- 101模型的样本表示的t-SNE图,使用MSPOT作为VisDA-C验证数据集的基线算法。他们说明DSBN提高了跨域表示的一致性,在第二阶段中,普通这意味着在训练阶段分离特定领域的信息有助于获得可靠的伪标签。请注意,特别是对于硬类,这种趋势更加明显。图4显示了BN(左)和DSBN(右)的实例嵌入,使用MIBRA作为VisDA-C数据集的基线。我们观察到,在同一类中的两个域的例子更好地对齐集成DSBN,这意味着DSBN是有效的学习域不变表示。迭代学习我们的框架采用第一阶段获得的网络作为第二阶段的伪标记器,第二阶段学习的网络比伪标记器更强。因此,我们可以通过迭代地应用第二阶段学习过程来期望进一步的性能改进,其中当前迭代中的伪标签由前一次迭代中的结果给出。为了验证这一想法,我们使用MPEG4作为基线算法在VisDA-C数据集上评估每次迭代的分类精度如表6所示,第二阶段的迭代学习随着迭代逐渐提高精度。7. 结论我们提出了用于无监督域自适应的特定于域的批量归一化。建议的框架具有单独的批处理规范化层分支,每个域一个,同时跨域共享所有其他参数。这个想法一般适用于具有批量归一化层的深度神经网络。这个框架与两个阶段的训练策略被应用到两个最近的无监督域自适应算法,MPENS和CPUA,并在标准的基准数据集上的两种情况下表现出出色的性能。我们还提出了我们的框架扩展到多源域适应问题的能力,并报告显着改善的结果相比,其他方法。鸣谢本工作得到了Kakao和Kakao Brain Corporation以及MSIP/IITP资助的韩国ICT研发引用[1] 卡斯顿·M放大图片作者:John W.Rasch,Hans-PeterKri egel,BernhardSc ho?l k opf,andAl e xJ. 斯莫拉用核最大平均离散方法整合结构化生物数据生物信息学,22(14):e49-e57,2006年7月。2[2] Konstantinos Bousmalis , George Trigeorgis , NathanSilber-man,Dilip Krishnan,and Dumitru Erhan.域分离网络。在NIPS,2016年。2[3] Yaroslav Ganin , Evgeniya Ustinova , Hana Ajakan ,PascalGermain , HugoLarochelle , Franc oisLa violette ,MarioMarc- hand,and Victor Lempitsky.神经网络的领域对抗训练JMLR,17(1):2096-2030,2016. 一、二、三、五、六、七7364[4] Judy Hoffman , Eric Tzeng , Taesung Park , Jun-YanZhu,Phillip Isola,Kate Saenko,Alexei A.埃弗罗斯和特雷弗·达雷尔。CyCADA:周期一致的对抗域自适应。在ICML,2018。一、二[5] Sergey Ioffe和Christian Szegedy。批次归一化:通过减少内部协变量偏移来加速深度网络训练。ICML,2015。三、四[6] Diederik P. Kingma和Jimmy Ba。亚当:一种随机优化方法。2015年,国际会议。6[7] 李阳浩,王乃彦,石建平,侯晓迪,刘吉英自适应批量标准化用于实际领域的适应。Pattern Recognition,80:109-117,2018。2[8] 林宗义、迈克尔·梅尔、塞尔日·贝隆吉、詹姆斯·海斯、彼得罗·佩罗纳、德瓦·拉马南、彼得·多尔和C·L·劳伦斯·齐特尼克。Microsoft COCO:上下文中的常见对象。2014年,在ECCV。6[9] 龙明生,曹跃,王健民,迈克尔·伊·乔丹.使用深度自适应网络学习可转移特征。ICML,2015。六、七[10]Mingsheng Long , Zhangjie Cao , Jianmin Wang , andMichael I Jordan.条件对抗域自适应。在NIPS,2018年。一、二、七[11]Mingsheng Long,Han Zhu,Jianmin Wang,and MichaelI Jordan.无监督域自适应与残差传输网络。在NIPS,2016年。7[12]Mingsheng Long,Han Zhu,Jianmin Wang,and MichaelI Jordan.使用联合自适应网络的深度迁移学习。ICML,2017。二、七[13]Massimiliano Mancini,Lorenzo Porzi,Samuel Rota Bul,Barbara Caputo,and Elisa Ricci.通过发现潜在域促进域自适应。在CVPR,2018年。2[14]Jeroen Manders Elena Marchiori和Twan van Laarhoven简单的领域自适应与类预测不确定性对齐。arXiv预印本arXiv:1804.04448,2018。一二三五七[15]Fabio Maria Carlucci,Lorenzo Porzi,Barbara Caputo,Elisa Ricci , and Samuel Rota Bulo.AutoDIAL : 自 动DomaIn对齐图层。InICCV,2017. 2[16]Xingchao Peng , Ben Usman , Neela Kaushik , JudyHoffman,Dequan Wang,and Kate Saenko.VisDA:2017年视觉5[17]Kate Saenko Brian Kulis Mario Fritz和Trevor Darrell使视觉类别模型适应新领域。ECCV,2010年。5[18]斋藤国明,牛久义孝,原田达也。用于无监督域自适应的非对称三训练。ICML,2017。2[19]Kuniaki Saito,Yoshitaka Ushiku,Tatsuya Harada,andKate Saenko.对抗性辍学正规化。国际学习表征会议(ICLR),2018年。6[20]斋藤国明,渡边康平,牛久义孝,原田达也.非监督域自适应的最大分类器离散度。在CVPR,2018年。6[21] Jian Shen,Yanru Qu,Weinan Zhang,Yong Yu.瓦瑟Stein距离引导的领域自适应表示学习在AAAI,2018。2[22]Baochen Sun,Jiashi Feng,and Kate Saenko. 返回Frus-tragingly容易域适应。在AAAI,2016。2[23]Baochen Sun和Kate Saenko。Deep CORAL:CorrelationAlignment for Deep Domain Adaptation.在ECCV工作-商店,2016年。一、二[24]Eric Tzeng , Judy Hoffman , Kate Saenko , and TrevorDarrell.对抗性判别域适应。在CVPR,2017年。2[25]Eric Tzeng,Judy Hoffman,Ning Zhang,Kate Saenko和Trevor Darrell。深层域混淆:最大化域不变性.CoRR,abs/1412.3474,2014。7[26]HemanthVenkateswara、JoseEusebio 、ShayokChakraborty和Sethuraman Panchanathan。用于无监督域自适应的深度哈希网络。在CVPR,2017年。五、六[27]Shaoan Xie,Zibin Zheng,Liang Chen和Chuan Chen。学习无监督领域自适应的语义表示在ICML,2018。一二三五七[28]Hongliang Yan , Yukang Ding , Peihua Li , QilongWang,Yong Xu,and Wangmeng Zuo.注意类权重偏差:无监督局部自适应的加权最大平均离散度.在CVPR,2017年。2[29]Werner Zellinger,Thomas Grubinger,Edwin Lughofer,ThomasNatschl aüger,andSusanneSaminge r-Platz. 中心矩离散(CMD)域不变表示学习。在ICLR,2017。2[30]Weichen Zhang,Wanli Ouyang,Wen Li,and Dong Xu.用于无监督域自适应的协作和对抗网络在CVPR,2018年。一、二、七
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功