没有合适的资源?快使用搜索试试~ 我知道了~
零激发域自适应的非纠缠特征协同学习
8896零触发域自适应的非纠缠特征协同学习Won Young Jhoo,Jae-PilHeo*成均馆大学@skku.edu摘要典型的域自适应技术旨在将从标签丰富的源域学到的知识转移到同一标签空间中的标签稀缺的目标域。然而,即使是感兴趣的任务的未标记的目标主数据通常也很难获得。在这种情况下,我们可以从看不见的任务中捕获源域和目标域之间的域偏移,并将其转移到感兴趣的任务,这被称为零激发域自适应(ZSDA)。大多数现有的最先进的方法ZSDA试图生成目标域数据。然而,训练这样的生成模型导致显著的计算开销并且几乎没有优化。在本文中,我们提出了一种新的ZSDA方法,通过对抗学习的域不变的语义特征和任务不变的域特征的协同训练,学习任务不可知的域转移。同时,空间注意图是从解纠缠的特征表示中学习的,以选择性地强调领域不变特征的领域特定的显著部分。实验结果表明,我们的ZSDA方法达到国家的最先进的性能在几个基准。1. 介绍最近的深度学习方法在各种计算机视觉任务中取得了成功,包括图像分类,分割和对象检测。然而,当训练数据和测试数据来自不同的域时,由于域偏移,这种深度学习模型通常会遭受严重的性能下降[12]。例如,在合成图像上训练的场景分割模型在应用于真实世界图像时表现更差,反之亦然。为了解决这个问题,领域自适应技术旨在将从标签丰富的源领域学到的知识转移到期望的目标领域,也称为*通讯作者图1:零激发域自适应的示例。在这个场景中,IrT是数字图像分析,ToI是时尚图像分析。源域和目标域分别是灰度图像域和彩色图像域。零激发域自适应的目的是通过学习任务不可知的域移位T(·)来训练目标域中的ToI模型,该模型在训练时间期间不可见。”transfer learning”, are actively being典型的域自适应方法假设目标域数据在训练阶段是可用的。然而,在现实世界的应用中,它往往是不可行的,以获得未标记的目标域数据,共享相同的标签空间与源域数据的兴趣。这种情况涉及一种新的迁移学习任务,称为零激发域自适应(ZSDA)[25]。零激发域自适应任务的目标是将域移位从不相关任务(IrT)转移到感兴趣任务(ToI),如图1所示。这种域自适应技术提出了一种新的方法,为各种数据稀缺问题。假设我们有一个场景文本数据集和一个合成()下一页8897文本数据集来开发场景文本检测模型。使用ZSDA,我们还可以通过添加易于生成的合成数据集来拥有支持其他语言的模型。现有的ZSDA技术可以基于其策略分为两种方法:1)生成ToI的目标域样本,以及2)学习不同域上的域不变特征表示。第一种方法中的方法通常使用生成模型,例如生成对抗网络(GAN)[11]或可变自动编码器(VAE)[17]来重建目标域分布并使用生成的样本训练模型。虽然这种策略很直观,但GAN和VAE等生成模型容易出现崩溃模式和标签翻转等问题。这些问题可以通过在域自适应中使用的样本而变得更糟。ZSDA的另一种方法是学习域不变特征表示。与样本生成方法相比,这些方法可以避免上述开销和重建目标域数据的不良风险。长期以来,学习域不变特征表示一直被积极研究,以解决其他类型的迁移学习问题,例如无监督域自适应[10,27],部分域自适应[3]和少数域自适应[24]。然而,所有列出的技术并不直接适用于ZSDA,因为它们严格要求未标记的目标域数据具有与源域相同的标记空间。当源域和目标域具有不同的标签时,在处理目标域数据时,IrT的区分特征被高估,而ToI的特征被低估。由于结构域中标记分布之间的这种差异,这导致负转移效应。ZSDA的一个有前途的方法是学习领域相关特征和任务相关特征的分离表示。最近的技术[26,20]具有特征分解器,以通过对抗学习从多个域学习域不变表示。然而,域不变特征本身不能充分区分以处理目标域的ToI分布,因为特征提取器在训练阶段从未看到它。为了解决上述问题,我们提出了一种更有效的方法,它协同学习类不可知的领域特征表示和领域不变的语义特征表示。我们的培训计划分为两个阶段:解缠结和细化。 在解纠缠阶段,我们扩展了域对抗适应方法[9,29],以同时学习类不可知域特征和域不变特征。在细化阶段,领域特征被转换成空间注意力图。 空间注意图选择性地强调域不变语义特征的域特定显著部分。这个恩-增强了不完全语义特征的区分力。我们的主要贡献可以概括如下:(1)我们提出了一个端到端的框架,零拍域适应,不需要任何额外的信息或假设的问题定义。 (2)我们提出一种新颖的协作特征细化,其具有可以防止在零触发域自适应期间的负传递效应的解纠缠特征表示。(3)我们所提出的方法实现了国家的最先进的性能在广泛的实验中的各种基准零拍域自适应任务。2. 相关作品域不变表示域自适应的目的是将从源域学习到的知识转移到标记数据稀疏的目标域或者根本不存在域自适应通常涉及域不变表示,其涉及各种方法。一些方法使用最大平均差异(MMD)[22,23]作为最小化不同域之间的特征分布差异的方式。随着生成对抗网络(GAN)[11]的发展,许多对抗策略,如梯度反转层[9],域对抗损失[29]和分类器差异损失[19,27]已成功用于各种域适应任务。领域不可知学习(DAL)[26]提出了一种通过对抗学习来解开特征表示的方法。然而,所有上述方法并不直接适用于零激发域自适应问题,因为它们在训练阶段利用未标记的目标域数据。零激发域自适应零激发域自适应(ZSDA)假设给定目标域数据的标签空间与感兴趣的任务不同。尽管最近已经探索了各种方法,但由于负迁移,ZSDA尚未得到很好的解决。部分域自适应方法[3,2]提出了一种减少负迁移的方法,但这些方法也依赖于ToI的目标域数据。在类似的问题设置中,d-SNE[40]提出了基于度量的少拍域自适应,但是在零拍设置中性能下降是显著的。ZSDA上的一些现有工作利用额外的信息来捕获能够被推广用于ToI的准确的域偏移。石井等人[15]利用域的已知属性信息(例如,相机的位置)。 Yang等[41]多个来源和焦油- 得到由连续变量的向量确定的域数据。零激发深度域自适应(ZDDA)[25]不需要这样的假设,但是在训练时间期间需要配对的双域样本。这些限制有助于8898不不C不Cr对齐源域和目标域表示,但使其难以适应现实世界的应用。ZSDA [33,34,35]的现有技术方法利用生成模型,例如耦合生成对抗网络(CoGAN)[21]和变分自动编码器(VAE)[17],其目的是重建目标域分布中的ToI样本。这些方法使用共享层来捕获ToI样本和耦合网络的语义概念以生成双域样本。然而,这些生成方法通过生成目标域样本产生显著的开销,并且继承了数据生成任务的困难。相反,我们提出了一种方法来学习一个精致的语义表示使用的注意力机制。关注 机制 最近, 关注 机制已经被广泛应用于捕捉人类感知的相关特征的各种神经网络体系结构。 它使模型能够专注于给定特征的突出部分,并且表明该机制可以提高各种计算机视觉任务中的模型性能,包括图像分割[4,8],图像分类[37,32]和图像生成[42,39]。特别地,Vaswaniet al. [30]提出了一种自注意机制,该机制可以计算给定输入的全局依赖关系,并在机器翻译中实现最先进的结果。也有人尝试通过学习可转移注意力[36]和时间对齐[5]将注意力机制应用于无监督域适应。3. 方法标记的数据样本{xr}。然而,在ZSDA设置中,由于训练阶段期间D s和D t之间的差异,f c中的ToI的语义特征通常与IrT特征分布对齐。为了缓解这个问题,我们引入了特征细化阶段,以从类别不可知的领域特征fd学习领域特定的空间注意力图,其指导在fc中参加哪里。通过将该特定领域的注意图应用于f-c,负迁移效应被降低,而正迁移效应被增强。请注意,我们描述我们的方法的基础上,假设给定的任务是那些图像分类。3.1. 特征解纠缠特征解纠缠过程的目标是从fc=Gc(x)中移除域相关信息并且从fd=Gd(x)中移除任务相关信息。 我们的特征解纠缠方法采用对抗性学习策略,域鉴别器D,和两个分类器Cr和Cir分别为ToI和IrT。特征解纠缠过程的总体过程在图12a.域不变特征域不变的语义特征f。经由D和G。之间的对抗学习来学习。域鉴别器D被要求将域标签与给定特征fd或fc区分开。具体地,域鉴别器Ld的损失函数定义如下:Lfd=−ExD[log ( D ( fd ) ) ]−ExD[log ( 1−D(fd))]在零激发域自适应(ZSDA)中,我们有两个Ds不同的任务,感兴趣的任务(ToI)和不相关的任务(IrT)。ToI和IrT具有不同的标签空间Cr和Cir,re。t t(一)分别为。我们还有两个域,一个源域DsLfc=−ExD[log(D(fc))]−ExD[log(1−D(fc))] DS S和靶结构域Dt。来自源的数据样本每个任务的域由Xr={Xr,yr}和t t(二)S sSXir={xir,yir},其中yr∈Cr且yir∈Cir。似-fd fcs s s s s通常,数据样本来自每个任务的目标域定义为Xr和Xir。ZSDA任务的目标是LD=LD+LD(3)另一方面,训练特征提取器Gt t tc通过使用三个标记的数据来学习未知数据Xr的模型数据集Xr、Xir和Xir。具有两个分类器Cr和Cir以保留f的语义信息。这是通过最小化类来实现的s s t c我们建议通过学习两个来不同的特征、类别不可知的域特征fd和域不变的语义特征fc。这两个特征化错误。因此,两个分类器的损失函数定义如下:fd和fc分别从不同的特征提取器Gd和Gc中提取。这两种类型的特征fd和fc是通过消除-F=−E(x,y)pToI [(y,Cr(fc))](4)分别从共享表示中提取类相关和域相关信息。在典型的无监督fcCir =−E(x,y)pIRT[(y,Cir(fc))],(5)域自适应任务中,来自特征解纠缠的域不变特征fc可以是足够的,因为可以通过解纠缠的可用性来保留对Xr其中,(·)是交叉熵损失,pr、pir分别是ToI和IrT的概率分布。同时,训练语义特征提取器GcLL8899fdDDDfd(a) (b)协作学习阶段图2:我们的方法概述。 (a)Gc提取语义特征fc,Gd提取领域特征fd。 然后通过对抗训练分别从fc和fd中(b)在解缠结阶段之后,训练细化模块以基于注意力机制产生细化特征fr这两个过程在每次迭代中重复。请注意,橙色框(R)表示细化模块。域鉴别器D学习域不变特征。结果,在域解缠结过程期间特征提取器的聚合损失函数表示如下:LCir =−E(x,y)pir[(y,Ci r(fd))](10)3.2. 协作学习LGcfcCrLGdfcCir=Lfd-LfcD(六)(七)如前所述,针对IrT优化的语义特征易于误导分类器以用于ToICr,即使上下文和领域信息被成功地解开。为了解决这个问题,我们提出了一个合作的重新-一旦域信息从fc中分离出来,类相关语义信息就通过ad从特定于域的特征fd中移除分类器和域特征提取器之间的对抗学习首先,分类器Cr和Cir是固定的,并且仅更新Gd以禁用来自fd的分类能力。这是通过最大化预测类分布的熵来实现的。损失函数定义如下:对特征图进行细化,以经由来自Fd的领域特定注意力图来突出目标领域的重要部分。图2b示出了细化步骤的总体过程。具体来说,我们在Transformer架构上建模我们的注意力方法[30]。给定一个域特征fd∈RC× N,首先将其送入卷积层 , 并 将 其 转 换 为 两 个特 征 A 和 B , 其 中 {A ,B}∈RC¯×N。另外,y、C 、C¯和N是通道、缩减通道和空间通道的数量。LGd=−nXnrlogCr(fj)−nXnirlogCir(fj),(8)特征图的位置。请注意,在所有实验中,我们一致地设置C¯=C/8。所得rj=1irj=1注意力图M计算如下:其中nr和nir分别是ToI和IrT中的数据样本数。一旦域特征提取器Gdexp(AiT·Bj)更新,然后训练分类器以识别mji=PNexp(AT·B),(11)类相关的功能从fd,而Gd是固定的。类似i=1ij等式4中,两个分类器的损失函数定义如下:LCr =−E(x,y)pr[(y,Cr(fd))](9)=L+L118900其中m表示第i个位置对第j个位置的重要性。同时,语义特征fc也被馈送到卷积层中并且被变换成特征C ∈k。8901R(x,y)prrR图3:X-NIST的合成结构域的样品图像。RC×N。那么精化模块O的输出是:XNOj=γ(mjiCi)+Fj(12)i=1其中F=fc。γ是初始化为零的可学习标量,并且逐渐学习向特定于域的关注特征图分配更多权重以上等式(Eq. 12)在两个细化模块处计算,如图12所示。2b以产生细化特征fr。注意,所有细化模块共享相同的域特征fd作为输入。通过以下分类损失来训练该总体细化过程Lfr =−λ rE(x,y)pir[(y,Ci r(fr))](13)−λE[(y,C(f))],并且细化的特征FR被用于最终的分类结果。 λ r是用于平衡解缠结级的损失和协作损失Lfr的超参数。实际上,我们设置λ r= 3。0的情况。4. 实验我们评估我们提出的方法对国家的最先进的ZSDA技术的合成和真实的数据集。4.1. 数据集为了评估我们用于分类任务的ZSDA方法,我们使用MINST(DM)[18],Fashion-MNIST(DF)[38],NIST(DN)[13],EMNIST(DE)[6]和Office-Home [31]。数据集。我们 表示 的 设置 的 字符数据集,{DM,DF,DN,DE)}作为X-NIST。MNIST是手写数字图像数据集。它包含60,000个训练图像和10,000个测试图像。 每个示例是一个28× 28大小的灰度图像,与来自10个类别的标签相关联。Fashion-MNIST包含时尚图像的轮廓。它具有与MNIST相同数量的训练和测试样本。此外,每个示例都是一个28× 28大小的灰度图像,与来自10个类别的标签相关联,如MNIST。NIST是一个手写字母数据集。我们从这个数据集中选择了52个类,它们是大写字母和小写字母。它包含387,361个培训和23,941个测试年龄,并且每个是128× 128大小的灰度图像。EMNIST是一个来自NIST的手写字母数据集,并转换为28× 28大小的图像格式,如MNIST。在本文中,我们使用EMNIST字母分裂,合并大写和小写字母。它总共包含来自26个类的124,800个训练图像和20,800个测试图像。Office-Home数据集是一个更具挑战性的领域自适应基准,通过几个搜索引擎和在线图像目录进行爬行。 它由来自4个不同的域:艺术图像(Ar)、剪贴画(Cl)、产品图像(Pr)和真实世界图像(Rw)。该数据集包含每个区域的65个对象类别的图像,并且数据集中的图像总数为ap。约15500人。数据集DM、Df、DN和DE都在灰色域(域G)中。为了评估我们的方法,我们遵循与CoCoGAN[33]相同的协议,该协议创建颜色(域C)、边缘(域E)和负域(域N)。通过使用Ganin通过使用Canny边缘检测器获得边缘域图像,并且通过应用对于给定的灰度图像I,In=255−I。生成的域的样本图像如图3所示。4.2. 实现细节我们使用PyTorch实现我们的方法。在所有实验中,鉴别器D用两个全连接层来实现,并且分类器Cr和Cir被实现为单个全连接层。我们使用两8902S域ToIIRT方法MNIST(DM)FashionMNIST(DF)NIST (DN)EMNIST(DE)DFDNDEDMDNDEDMDFDMDFZDDA73.292.094.851.643.965.334.321.971.247.0G →CCoCoGANWang等人我们的(无优化)78.181.268.692.493.386.795.695.096.656.857.457.356.758.761.266.862.073.341.044.631.344.945.517.175.072.481.954.858.971.7我们93.397.097.967.772.676.345.731.386.474.1ZDDA72.591.593.254.154.065.842.328.473.650.7G →ECoCoGANWang等人我们的(无优化)79.681.484.794.993.589.295.496.394.361.563.254.257.558.739.071.072.463.248.049.946.736.338.633.877.978.268.558.661.167.0我们92.995.598.965.060.774.453.446.991.182.9ZDDA77.982.490.561.447.462.737.838.776.253.4G →NCoCoGANWang等人我们的(无优化)80.3-88.587.5-95.893.1- 九十九点零66.0-60.652.2-82.669.3-84.445.7-58.253.8-52.981.1-93.056.5-91.0我们97.797.099.281.385.484.258.759.093.489.9ZDDA67.485.787.655.149.259.539.623.775.552.0C →GCoCoGANWang等人我们的(无优化)73.273.798.789.691.098.094.793.499.261.162.488.950.753.586.670.271.589.047.550.661.257.758.164.280.283.590.967.470.992.1我们98.999.199.389.389.189.669.069.192.893.3ZDDA78.590.787.656.657.167.134.139.567.745.5N →GCoCoGANWang等人我们的(无优化)80.182.689.892.894.697.293.695.898.963.467.061.761.068.282.772.877.982.147.051.152.643.944.253.878.879.792.958.462.291.4我们94.998.599.283.484.086.358.451.093.391.3表1:合成结构域的实验结果。域G、C、E和N是指灰度域、彩色域、边缘域和负域。我们的(无细化)表示没有细化阶段的结果。最佳结果以粗体标记。基线结果取自论文[25,33,34]。用于所有实验的细化模块。在X-NIST数据集上的实验中,我们使用三个DN,和50用于Office家庭数据集。此外,我们从每个小批量的Xir、Xir和Xr中采样相等数量的训练数据(对于X-NIST为64,对于Office为8)。卷积层来实现特征提取器Gdt sir和Gc.输入图像大小调整为28× 28,fd、fc和fr的特征维数为128× 7× 7。批量大小设置为64。在Office-Home数据集上的实验中,我们使用ResNet-50 [14]作为特征提取器,并且使用ImageNet [7]预训练的权重初始化语义特征提取器Gd请注意,以前的作品[34,25]也利用ImageNet样本或ImageNet预训练的权重。fd、fc和fr的特征维数为512× 7× 7,批量大小设置为8。我们使用Adam优化器[16],其中β 1=0。5和β 2=0。999所有实验 初始学习率被设置为0.0002,并在整个训练迭代中衰减0.1两次。历元的数量是基于8903不Home)。 我们还强制匹配X和XIR内的一个小批量,我们观察到,这种采样方法有助于找到在训练的早期阶段,在同一个类之间的域转移,从而提高了几个域自适应设置的性能。补充材料中描述了标签匹配抽样方法的有效性。由于ZSDA问题假设ToI的目标域数据在训练阶段不可用,因此报告测试集准确性的方式取决于是否提供了验证集。如果已经提供了验证集,例如X-NIST数据集,则我们报告的测试集准确度是当Xir、Xir和Xr上的验证准确度之和达到最高时。否则s t s在ToI数据集大小上,在最后一个时期报告{DM,DF,DE}为100,测试集精度为308904A. 源域=艺术、剪贴画源艺术(Ar)剪贴画(CI)目标CLPRRWArPRRWCoCoGAN62.269.574.566.774.066.4Wang等人62.771.976.372.675.173.9源仅55.1±4。565.3±2。377.5±2。342.5±2。362.1±2。359.5±1。8我们71.0±3。276.5±1。985.1±1。162.1±3。068.7±2。175.1±2。3B. 源域=产品,真实世界源产品(Pr)真实世界(Rw)目标ArCLRWArCLPRCoCoGAN57.653.471.769.251.365.8Wang等人70.360.874.872.261.472.2源仅47.9±3。552.3±3。470.2±1。765.8±2。160.6±4。283.2±2。5我们64.4±2。169.2±1。882.0± 0.677.9±1。076.2±2。588.5±1。8表2:在Office-Home数据集上的实验结果。来自方法CoCoGAN和Wanget al.是当他们使用10个随机类别作为ToI时的准确性。我们的方法和源的方法报告的平均精度和标准误差的平均值(SEM)超过六个不同的ToI/IRT分裂。基线结果取自论文[34]。4.3. X-NIST数据集的结果给定四个数据集,我们对十个不同的ToI和IRT对进行实验注意,我们没有在DE和DN之间进行实验,因为两个数据集覆盖相同的任务。因此,我们对五个不同的源域和目标域对进行实验,它们是(G→ C)、(G→ E)、(G→ N)、(C→ G)和(N→ G)。然后我们将我们的方法与三个基线进行比较:ZDDA [25],CoCoGAN [33]和Wanget al. [34]。表1报告了对ToI的不可见目标域数据的分类准确性。我们的方法显着优于基线方法。特别是在(C→ G)和(N→ G)个任务,我们提出的方法达到了18.09%和11.7%的性能改进平均COM-与各自的现有技术相比。这证实了我们的方法有效地学习领域不变的语义特征的ToI和捕获的重要区域在目标领 域 的 图 像 。 同 时 , 性 能 仅 在 ( NIST ,FashionMNIST)任务对和(灰色,颜色)域对中下降。这似乎是因为NIST的内容大小比其他的小,所以背景颜色图像的IRT类对象在更高程度上阻碍了识别ToI对象。为了验证我们提出的注意力机制的有效性,我们还在X-NIST数据集上进行了消融实验。我们在训练过程中删除了特征细化过程,并仅使用域不变特征fc评估模型性能。没有细化模块的结果报告在表1中。在大多数情况下,与不使用细化模块时具体来说,平均在所有实验设置上的性能从81.72%提高到88.28%。这些结果清楚地证明了我们的注意力模块的益处,其有助于防止ZSDA中的负性转移。4.4. Of fice-Home数据集为了评估我们的方法在现实世界中的领域,我们还进行了实验的办公室家庭数据集。由于该数据集没有提供ToI和IrT之间的明确划分,因此先前对ZSDA的工作(CoCoGAN [33]和Wanget al. [34])使用来自Office-Home中的65个类别的10个随机类别作为ToI,其余类别作为IRT。由于在先前的工作中没有明确报告训练/测试类别划分,因此我们以以下方式进行实验以使比较尽可能公平:首先,我们将65个类别的办公室家庭分成六个不同的子集,而每个子集中的每个类别的数量固定为10。对于每个子集,我们使用子集作为ToI,其余的作为IrT(即10个ToI类别和55个IRT类别)。我们进行了实验,所有的12个不同的领域适应任务,和平均精度和平均值的标准误差(SEM)超过6个不同的ToI/IRT分裂的报告。我们还报告了仅使用源域的ToI数据训练的ResNet-50模型的性能。表2显示了Office- Home基准测试的实验结果。即使源和目标域之间的域移位比合成域的域移位更模糊,我们的方法也显著地优于仅源结果。另外,我们的方法-8905不图4:办公室-家庭实验(Ar→Cl)的Grad-CAM [28]可视化结果 f。可视化来自G T的最后一个卷积输出,并且fr可视化来自第一细化模之后的卷积输出。乌莱输入图像Xr是来自每个目标域的不可见ToI样本,并且P是与每个特征相对应的分类结果的softmax得分。剪贴画域在fD中被突出显示,而非空区域在细化特征fR中被突出显示。这些结果表明,我们的细化模块可以有效地emphasize低估或错过的ToI功能,同时抑制不相关的功能。图5:来自办公室-家庭域适配结果的每个特征图的通道平均值的可视化。平均提高4.38%。这些结果证实了我们提出的ZSDA方法的优点,即使在最具挑战性的现实世界的情况下。4.5. 特征细化的可视化Grad-CAM [28]是一种可视化技术,它通过利用梯度产生一个局部化图,突出显示图像中的关注区域。我们将Grad-CAM应用于两个Office-Home域适配结果,以定性地分析细化模块的效果。图4示出了当特征fc和fr被馈送到分类器Cr时的关注区域。我们观察到目标对象在fc中的较低权重部分在fr中变得突出显示。图5示出了每个特征图的通道平均值的可视化。在该示例中,我们可以看到,通常存在于图中的空白区域被移除。5. 结论在本文中,我们提出了一种基于注意力的协作学习方法,解决了具有挑战性的ZSDA问题,其中的目标域数据的ToI是不可用的。我们的方法首先将给定的输入分解为基于对抗学习的任务不变和域不变特征。细化模块基于从任务不变特征推断出的任务不可知注意力图来协作地学习从域不变特征强调或抑制何处。据我们所知,这是第一次尝试在ZSDA中使用注意力机制。消融研究验证了所提出的基于注意力的细化模块显著提高了零激发域自适应的整体性能,并且我们提供了关于特征细化结果的视觉解释。我们未来的工作包含所提出的方法扩展到其他计算机视觉任务,如场景文本检测和识别。这项工作得到了MCST/KOCCA(No.R2020070002 ) 、 MSIT/IITP ( 编 号 2020-0-00973 、2019-0-00421、2020-0-01821和2020-0-01550)、MSIT/NRF(No. NRF-2020R1F1A1076602)和 MSIT&KNPA/KIPoT ( PoliceLab2.0 , No.210121M06)。8906引用[1] 巴勃罗·阿贝莱斯,迈克尔·梅尔,查利斯·福克斯,还有吉坦德拉·马利克.轮廓检测和分层图像分割。IEEETransactionsonPatternAnalysisandMachineIntelligence,33(5):898-916,2010. 五个[2] Zhangjie Cao , Kaichao You , Mingsheng Long ,Jianmin Wang,and Qiang Yang.学习转移部分域适应的示例。在IEEE/CVF计算机视觉和模式识别会议论文集,第2985-2994页二个[3] 法比奥·M·卡卢奇、安东尼奥·解决拼图游戏的领域在IEEE/CVF计算 机视觉和 模式识别 会议论文集, 第2229-2238页二个[4] Liang-Jieh Chen,Yi Yang,Jiang Wang,Wei Xu,andAlan L Yuille.注意尺度:尺度感知的语义图像分割。在IEEE计算机视觉和模式识别会议论文集,第3640三个[5] Min-Hung Chen , Zsolt Kira , Ghassan AlRegib ,Jaekwon Yoo,Ruxin Chen,and Jian Zheng.用于大规模视频域适应的时间注意在IEEE/CVF计算机视觉国际会议论文集,第6321-6330页,2019年。三个[6] Gregory Cohen 、 Saeed Afshar 、 Jonathan Tapson 和Andre Van Schaik。Emnist:将mnist扩展到手写信件。2017年国际神经网络联合会议(IJCNN),第2921-2926页IEEE,2017年。五个[7] Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,KaiLi,and Li Fei-Fei. Imagenet:一个大规模的分层图像数据库。2009年IEEE计算机视觉和模式识别会议,第248-255页Ieee,2009年。六个[8] Jun Fu , Jing Liu , Haijie Tian , Yong Li , YongjunBao,Zhivei Fang,and Hanqing Lu.用于场景分割的双注意网络。在IEEE/CVF计算机视觉和模式识别会议论文集,第3146三个[9] 雅罗斯拉夫·甘宁和维克多·伦皮茨基。通过反向传播的 无 监 督 域 自 适 应 国 际 机 器 学 习 会 议 , 第1180PMLR,2015.二、五[10] Yaroslav Ganin 、 Evgeniya Ustinova 、 Hana Ajakan 、PascalGermain、HugoLarochelle、Fran cçoisL a violette、MarioMarchand和Victor Lempitsky。神经网络的领域对抗机器学习研究杂志,17(1):2096-2030,2016。二个[11] Ian J Goodfellow,Jean Pouget-Abadie,Mehdi Mirza,Bing Xu , David Warde-Farley , Sherjil Ozair , AaronCourville,and Yoshua Bengio.生成对抗网络。arXiv预印本arXiv:1406.2661,2014。二个[12] A. Gretton,AJ.Smola,J.Huang,M.Schmittfull,KM.Borg-wardt和B. Scho ¨ l k opf. 通过分布匹配的C 〇变量移位和局部学习,第131-160页。麻省理工学院出版社,剑桥,马萨诸塞州,美国,2009年。一个[13] 帕特里克·格罗瑟和花冈嘉仪Nist特殊数据库19手写形式和字符第2版。美国国家标准与技术研究院。 Rep,2016. 五个[14] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在Proceedings ofthe IEEE conference on computer vision and patternrecognition,第770-778页,2016中。六个[15] Masato Ishii , Takashi Takenouchi , andMasashiSugiyama.基于属性信息的零炮域自适应亚洲机器学习会议,第473PMLR,2019年。二个[16] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980,2014。六个[17] Diederik P Kingma和Max Welling。自动编码变分贝叶斯。arXiv预印本arXiv:1312.6114,2013。二、三[18] YannLeCun,Le'onBottou,YoshuaBengio和PatrickHaffner。基于梯度的学习应用于文档识别。Proceedings of the IEEE,86(11):2278-2324,1998.5[19] Chen-Yu Lee,Tanmay Batra,Mohammad Haris Baig,and Daniel Ulbricht.非监督域自适应的切片wasserstein差异在IEEE/CVF计算机视觉和模式识别会议论文集,第10285-10295页,2019年。二个[20] Alexander H Liu,Yen-Cheng Liu,Yu-Ying Yeh,andYu-Chiang Frank Wang.一个统一的多域图像翻译和操作 的 特 征 分 解 器 arXiv 预 印 本 arXiv : 1809.01361 ,2018。二个[21] 刘明宇和昂塞尔·图泽尔。耦合生成对抗网络。arXiv预印本arXiv:1606.07536,2016。三个[22] 龙明生,曹跃,王建民,迈克尔·乔丹.使用深度自适应网络学习可转移特征国际机器学习会议,第97-105页。PMLR,2015. 二个[23] Mingsheng Long , Han Zhu , Jianmin Wang , andMichael I Jordan. 无监督域自适应与残差转移网络。arXiv预印本arXiv:1602.04433,2016。二个[24] Saeid Motiian、Quinn Jones、Seyed Mehdi Iranmanesh和Gianfranco Doretto。少镜头对抗域适应。arXiv预印本arXiv:1711.02536,2017。二个[25] Kuan-Chuan Peng,Ziyan Wu,and Jan Ernst.零触发深度域自适应。在欧洲计算机视觉会议论文集(ECCV)中,第764一、二、六、七[26] Xingchao Peng,Zijun Huang,Ximeng Sun,and KateSaenko. 领域不可知学习与解纠缠的代表。在机器学习上,第5102-5112页。PMLR,2019年。二个[27] 斋藤国明,渡边康平,牛久义孝,原田达也.非监督域自适应的最大分类器差异在IEEE计算机视觉和模式识别会议论文集,第3723-3732页,2018年。二个[28] Ramprasaath R Selvaraju,Michael Cogswell,AbhishekDas,Ramakrishna Vedantam,Devi Parikh,and DhruvBatra.Grad-cam:通过基于梯度的定位从深度网络进行视觉解释。在IEEE国际计算机视觉会议,第618八个8907[29] Eric Tzeng,Judy Hoffman,Kate Saenko,and TrevorDarrell. 对 抗 性 判 别 域 自 适 应 。 在 Proceedings of theIEEEconferenceoncomputervisionandpatternrecognition,pages 7167-7176,2017中。二个[30] Ashish Vaswani ,Noam Shazeer,Niki Parmar,JakobUszko-reit , Llion Jones , Aidan N Gomez , LukaszKaiser,and Il- lia Polosukhin.注意力是你所需要的。arXiv预印本arXiv:1706.03762,2017。三、四[31] HemanthVenkateswara 、 JoseEusebio 、 ShayokChakraborty和Sethuraman Panchanathan。用于无监督域自适应的深度散列网络。在IEEE计算机视觉和模式识别会议论文集,第5018-5027页,2017年。五个[32] Fei Wang,Mengqing Jiang,Chen Qian,Shuo Yang,Cheng Li , Honggang Zhang , Xiaogang Wang , andXiaoou Tang.用于图像分类的剩余注意力网络在IEEE计算机视觉和模式识别会议的论文集,第3156-3164页3[33] Jinghua Wang和Jianmin Jiang。条件耦合生成对抗网络的零射击域适应。在IEEE/CVF计算机视觉国际会议论文集,第3375-33
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功