没有合适的资源?快使用搜索试试~ 我知道了~
12376“花”开集域自适应Jogendra Nath Kundu, Naveen Venkat, Ambareesh Revanur Rahul M V R.Venkatesh Babu视频分析实验室,CDS,印度科学研究所,班加罗尔摘要视觉识别领域自适应(Domain Adaptation,DA)研究取得了巨大的进展.特别是,开集DA已经获得了相当大的关注,其中目标域包含额外的看不见的类别.现有的开集DA方法需要访问标记的源数据集以及未标记的目标实例。然而,在数据共享由于其专有性质或隐私问题而受到限制的情况下,这种对共存的源数据和目标数据的依赖是地址-A.源域B.未标记靶域客户端供应商在标记的源域上训练可继承并将其分享给客户供应商客户机无数据交换客户端在没有供应商数据的情况下执行无监督自适应“床”因此,我们引入了一个实用的DA范例,其中源训练的模型用于在未来没有源数据集的情况下促进自适应。为此,我们形式化的知识继承性作为一个新的概念,并提出了一个简单而有效的解决方案,以实现适合上述实际范例的可继承模型。此外,我们提出了一种客观的方法来量化继承性,使选择最合适的源模型为给定的目标域,即使在没有源数据。我们提供了一个彻底的实证评估,展示了最先进的开集域自适应性能的理论见解我们的代码可在https://github.com/val-iisc/inheritune上获得。1. 介绍当训练和测试实例来自相同的分布时,深度神经网络表现得非常好然而,他们缺乏在域转移[42]存在下进行概括的能力,表现出令人担忧的数据集偏差或域偏差[45]。因此,如果训练数据(从源域获取)不足以可靠地表征测试环境(目标域),则在测试时观察到性能下降。这一挑战出现在几个计算机视觉任务中[32,25,18],其中一个任务通常限于有限的可用源数据集阵列,这些数据集实际上不足以代表广泛的目标域。这激发了一系列无监督域自适应(UDA)工作,旨在在存在标记源域的情况下将模型推广到未标记的*同等贡献“适应后的标签预测图1. A)我们提出了可继承的模型来将任务特定的知识从模型供应商转移到客户端,B)在供应商和客户端之间没有数据交换的情况下执行无监督开集域自适应。在这项工作中,我们研究UDA的背景下,图像识别。值得注意的是,大量的UDA方法受到深度CNN模型学习可转移表示的潜力的启发[52]。这已经形成了几个UDA作品的基础,这些作品通过对齐潜在特征空间中源域和目标域的边缘分布来学习域不可知特征表示[26,44,48其他几个作品通过独立的域变换[47,5,32]来学习特定于域的两个域的潜在空间对齐允许将源分类器重新用于目标域。 然而,这些方法在假 设 两 个 域 ( 闭 集 ) 之 间 有 一 个 共 享 的 标 签 集(Cs=Ct) 这限制了其在现实世界中的应用。目标域通常包含源域中未找到的类别之外的其他不可见类别的能力最近,开集DA [35,39]得到了很多关注,其中假设目标域具有非共享类别(Cs <$Ct),也称为类别移位。来自非共享类别的目标实例被分配一个未知标签[35](见图1B)。开放式DA更具挑战性,“床”可继承模型“瓶子”“花”12377由于分布对准直接应用(例如,与闭集DA [20,44]一样)由于来自非共享类别的干扰(称为负转移[ 34 ]的效应)而降低了模型开集DA的成功不仅依赖于共享类的对齐,而且依赖于减轻负迁移的能力。诸如[53]的最先进的方法使用源和目标数据来训练域递归,以检测和拒绝源分布之外的目标实例,从而最小化负转移的影响。总之,现有的UDA方法假设访问标记的源数据集以在适应期间间接地接收任务特定然而,这种共存的源数据集和目标数据集的假设在现代世界中构成了一个重大的限制,在现代世界中,应对严格的数字隐私和版权法是至关重要的[33]。这在现代企业交易中变得越来越明显,特别是在医疗和生物识别行业,其中源组织(模型供应商)通常被限制共享其专有或敏感数据,以及预先训练的模型,以满足客户同样,客户端被禁止与模型供应商共享私有数据[17]。当然,现有的开集DA解决方案的集合不足以解决这些场景。因此,有一个强大的动机,开发实用的UDA算法,使供应商和客户端之间的数据交换没有假设。一种解决方案是设计自适应模型,有效地捕获来自供应商源域的特定于任务的我们称这种模型为可继承模型,指的是它们在不访问源域数据的情况下跨域继承和转移知识的能力。量化这些模型的知识可继承性也很重要。给定一系列可继承的模型,这种量化将允许客户端灵活地选择最适合客户端特定目标域的为了解决这些问题,在这项工作中,我们展示了供应商如何开发一个可继承的模型,客户端可以有效地利用该模型来执行对目标域的无监督适应,而无需任何数据交换。总而言之,我们的主要贡献是:• 我们提出了一个实用的UDA方案,通过放松共存的源和目标域的假设,称为供应商-客户端范例。• 本文提出了可继承模型来实现供应商-客户范式,并给出了可继承性的客观度量,这对模型的选择至关重要。• 我们提供了理论见解和广泛的empiri- cal评估,以证明国家的最先进的开放集DA性能使用可继承的模型。2. 相关工作闭集DA。假设一个共享的标签空间(Cs=Ct),这些方法的中心主题是最小化的差异。 MMD等统计措施[51,27,28],CORAL [44]和对抗特征匹配技术[10,48,46,47,40]被广泛使用。 最近,域特定的归一化技术[23,5,4,37]已经开始受到关注。然而,由于共享标签集的假设,这些方法是非常容易出现负迁移的存在下,新的目标类别。开集DA。ATI-λ [35]根据每个目标实例到潜在空间中每个源集群的距离,为每个目标实例分配一个伪类标签或未知标签。OSVM [15]使用类置信度阈值将目标实例分类到源类中,或将其拒绝为未知。OSBP [39]和STA [24]通过对抗特征匹配来对齐源和目标然而,OSBP和ATI-λ都是超参数敏感的,并且容易发生负传递。相比之下,STA [24]学习一个单独的网络来获得目标样本的实例级权重,以避免负传递并实现最先进的结果。这些方法都假设源数据和目标数据共存,而本文的方法没有假设源数据和目标数据共存,因此具有更大的实际意义。域泛化。诸如[9,21,8,22,31,16]的方法在很大程度上依赖于具有共享标签集的任意数量的共存源域,以在看不见的目标域中进行推广。当每个供应商提供的数据之间存在固有的类别转移时,这使得这些数据不切实际。相比之下,我们通过在单个源域上学习来解决具有挑战性的开集无数据知识蒸馏(KD)。在典型的KD设置中[13],学习学生模型以匹配教师模型的输出。最近,DFKD [29]和EscherkKD [33]证明了当教师的培训数据不可用时,知识转移给学生。我们的工作在一定程度上受到了他们无数据意识形态的启发。然而,我们的工作在两个实质性方面不同于KD; 1)由于KD算法的性质,它不能减轻域偏移的问题,因为教师表现出的任何域偏差将被传递给学生,以及2)KD只能针对教师所训练的任务来执行,而不是被设计用于在没有标记数据的情况下识别新的(未知的)目标类别。开集DA算法需要同时处理域转移和类转移,而这些方法不支持这一点。我们制定的可继承模型的开放集DA是从现有技术有很大的不同-不仅是强大的负转移,但也有利于域适应在没有数据交换。123783. 无监督开集域自适应在本节中,我们在无监督开集域自适应(UODA)的上下文中正式定义了供应商-客户端范式和可继承性3.1. 预赛记法。 给定一个输入空间X和输出空间Y,源域和目标域分别由X × Y上的分布p和q刻画.设p x,q x表示边际输入分布,|x,q y|x表示两个域的条件输出分布。 令Cs、Ct Y表示分类任务(CsCt)的相应标签集。 在UODA问题中,标记源数据集Ds={(x s,ys):x s<$p x,y s<$p y|x}和未标记的目标数据集Dt={x t:x t<$q x}。我们的目标是为每个目标分配一个标签-stancext,通过预测共享类(Csh=Cs),以及使人们能够成功地学习目标预测器的条件化。为此,我们形式化的源训练模型的特定于任务的知识的继承性3.3. 继承性我们定义了一个可继承的模型,从学习的角度预测(h t)的目标任务。直 觉 上,给定假设类H{h|h:X → Y},则一个内遗传模型h s应该是足够的(即, 在没有源域数据的情况下)来学习其性能接近H中的最佳预测器的性能的目标预测器h t。定义2(可继承性标准)。 设H <${h|h:X → Y}是一个假设类,且δ∈(0,1).如果目标预测器h t:X → Y可以使用未标记的目标样本D t=1来学习,则源预测器h s:X → Y被称为相对于假设类H是可继承的。{xt:xt<$qx},当给定访问hs的参数时,使得概率至少为(1-δ),tukht不超过H中的最佳预测因子的值更多类(Ct=Ct\Cs)。为了简单起见,我们表示为dis-目标共享实例和目标未知实例的分配,分别为Qsh和Quk。我们将在源域上训练的模型表示为hs(源预测器),将适应目标域的模型表示为ht(目标预测器)。性能指标。UODA的主要目标是提高目标域的性能。因此,任何UODA算法的性能都是由目标预测器的错误率ht来衡量的,即,q(ht),是em-被螺旋地估计为P{(xt,yt)<$q}[ht(xt)/=yt],其中P是在实例Dt上估计的概率。3.2. 供应商客户端范例我们的工作的中心焦点是实现一个实用的DA范式,这是根本可行的,在没有共存的源和目标域。有了这个意图,我们正式我们的DA范式。定义1(供应商-客户范例)。考虑一个供应商可以访问标记的源数据集Ds,而一个客户端具有从目标域采样的未标记的实例Dt。在供应商-客户端范例中,供应商使用D s来学习源预测器h s,以对条件p y进行建模|x,并将h s共享给客户端。使用h s和Dt,客户端学习目标预测器h t以对条件q y进行建模|X.这种范式满足两个重要性质:1)它不假设供应商和客户之间的数据交换,这是应对动态改革的数字隐私和版权法规的基础,以及2)单个供应商模型可以与多个客户共享,从而最小化花费在源训练上的努力。因此,这种范例比传统的UDA设置具有更大的实际意义,在传统的UDA设置中,每个适配步骤都需要来自源数据的额外监督[24,39]。按照这种模式,我们的目标是重新-比。从形式上讲,P[Hq(h t)≤Hq(H)+Hq] |h s,Dt] ≥1 −δ( 1)其中,<$q(H)=minh∈H<$q(h),P是在样本Dt的选择上计算的。这个定义表明,一个可遗传的模型能够可靠地转移任务-在没有源数据的情况下,目标领域的特定知识,这是供应商-客户范例所必需的。给定这个定义,一个自然的问题是,如何量化目标任务的供应商模型的可继承性在下一节中,我们将通过展示UODA的可继承4. 方法如何设计可继承的模型?可以有几种方法,这取决于客户所需的特定于任务的知识。例如,在UODA中,客户端必须在存在域转移和类别转移的情况下有效地学习分类器。在这里,不仅类可分性的知识是必不可少的,而且检测未知的新目标类别的能力对于避免负迁移是至关重要的。通过有效地识别这些挑战,可以为需要供应商数据集的任务开发可继承在这里,我们使用一个可继承的模型来演示UODA。4.1. 供应商训练可继承模型在UODA,主要的挑战是解决负迁移问题。Thischallenge arises due to the overconfidence issue [19] indeepmodels,whereunknowntargetinstancesareconfidently predicted into the shared classes, and thus getaligned with the source domain.诸如[53]的方法倾向于通过利用域判别器来在适应期间为潜在未知的目标实例分配低实例级权重来避免负转移然而,在这方面,12379(a)供应商训练可继承的模型(b)客户端适应目标域图2.A)供应商培训和B)客户端适配。虚线边框表示冻结的网络。在供应商和客户之间没有数据交换的情况下,诸如域交换的解决方案是不可行的。因此,一个可继承的模型应该具有表征源分布的能力,这将有助于在适应过程中检测未知的目标实例根据这种直觉,我们设计了架构。导致在受限区域内生成的特征(参见图3A)。事实上,我们提出了一种有效的方法来生成OOD样本,我们称之为特征拼接技术。拼接众所周知,在深度CNN中,更高的卷积层专门用于捕获类别区分属性[54]。例如,[56]为高conv层中的每个过滤器分配一个对象部分,demon-这表明每个过滤器学习不同的类特定特性。由于这种特异性,特别是当整流激活功能(例如,ReLU),每当在输入中观察到学习到的类特定特征时,特征映射都会接收到高激活[6]。因此,我们认为,通过抑制这种高激活,我们得到的特征缺乏特定的源类的属性,因此将更准确地代表OOD样本。然后,对这些样本实施低分类器置信度可以缓解过度置信问题。在特定的特征层,通过用属于不同类的实例的相应激活来替换前d个百分位数激活,来执行特征拼接(见图11)。第3B段)。从形式上讲,un=φd(uci,ucj),其中ci,cj∈Cs,ci/=cj(2)S sa) 架构 如图2A,特征突出,其中,对于源图像xci,uci=Ms(xci),torFs由主干CNN模型Ms和完全s s s组成连接层Es。分类器G包含两个子模块,源分类器G s,|Cs|类,以及一个辅助的分布外(OOD)分类器G n,K类占源分布未覆盖的“负”区域(图2)。第3C段)。每个输入xs的输出ys是通过连接Gs和Gn的输出(即,连接Gs(Fs(xs))和Gn(Fs(xs))),然后激活softmax这使模型具有捕获类可分性知识(以Gs 为单位)和检测OOD实例(通过Gn)的能力。这个设置是莫-由于过度自信问题可以通过最小化OOD实例的分类器置信度来解决因此,Gs的置信度对于分布中(源)实例被最大化,并且对于OOD实例被最小化(通过最大化Gn的置信度)。b) 数据集准备。为了有效地学习OOD检测,我们用综 合 生 成 的 否 定 实 例 来 增 强 源 数 据 集 , 即 。Dn={(un,yn):un <$r u,yn <$r y|u},其中r u和ry|u是边际潜在空间分布和条件输出分布,负面的例子分别。我们使用Dn,将低源密度区域建模为分布外(见图11)。第3C段)。为了获得Dn,[19]可以使用GAN框架来生成“样品。然而,这是计算密集型的,并且引入了用于训练的附加参数。此外,我们要求这些阴性样本覆盖OOD区域的大部分。这消除了直接使用线性插值技术,例如mixup[55,50],其重新ci类,φd是特征拼接算子,将前d个百分位激活放置在特征uci中,cjs如图3B所示,(see算法补充)。这一过程产生了一个没有类特异性特征的特征,但靠近源分布。为了标记这些阴性实例,我们执行K均值聚类并为每个样本聚类分配唯一的阴性通过训练辅助分类器Gn以将这些样本区分为这些K个负类,我们减轻了如前所述的过度自信问题我们发现特征拼接在实践中是有效的。我们探索的其他技术见附录。c) 培训程序。我们分两步训练模型。首先,我们通过使用标准交叉熵损失使用源数据Ds预训练{Fs,Gs}Lb=LCE(σ(Gs(Fs(xs),ys)(3)其中,σ是softmax激活函数。接下来,我们冻结主干模型Ms,并通过在Ms的最后一层使用源特征执行特征拼接来生成负实例Dn={(un,yn)}。然后,我们继续使用超-Ds和Dn的视觉,Ls=LCE(ys,ys)+LCE(yn,yn)(4)其 中 , ys=σ ( G ( Fs ( xs ) 和 yn=σ ( G ( Es(un),并且G的输出如在第2节中所描述的那样获得。4.1a(图中所示2)。Gs和Gn的联合训练允许模型在表征负区域(在Gn中)的同时捕获类可分性知识(在Gs中12380D1d1d2d3不XXA. 生成OOD线性B. 剪接C. 供应商培训D. 适应前E. 适应后插值D2D1D1d2d3d2d3D3特征拼接决策边界负实例源实例目标共享实例target-未知实例高源极密度区靶区共享密度图3. A)使用线性插值和特征拼接在三维空间(d1,d2,d3)中生成的负实例的示例。B)通过抑制类别区分性状进行剪接(在这里,我们替换前(1/3)百分位激活,d1)。C)具有负类的可继承模型。D)适应前的域转移。(一)成功的适应。最好用彩色观看。这使得知识的可继承性更好。一旦训练了可继承模型 hs={Fs , G} , 就 将 其 共 享 给 客 户 端 以 执 行UODA。区域)。扩展实例级可继承性,我们将整个目标数据集上的模型可继承性定义为,平均x∈Dw(xt)I(hs, Ds, Dt)=t t(七)4.2. 客户端适应目标域有了一个训练好的可继承模型(hs),第一个任务是测量域转移的程度,以确定供应商模型的可继承性然后是一个选择性的适应过程,鼓励共享类对齐,同时避免负迁移。a) 量化 遗传性在一个小域转移,大多数目标共享实例(属于-平均xs∈Dsw(xs)更高的自我来自于更小的领域转移,这意味着更大的任务特定知识的可继承性(例如,UODA的类可分性)到目标域。 注意,对于给定的三元组{h s,Ds,Dt},I是常数,并且等式2中的分母的值为:7可以从供应商处获得。b) 适应程序。为了执行对目标域的适应,我们学习目标特定的特征提取,Csh中的类)将位于高源附近托尔F={M,E}如图所示。2B(类似于architec-tt t t t t潜在空间中的密度区域(例如,图3E)。因此,一个可以依赖于HS的类可分性知识来预测目标标签。然而,随着高密度区域附近的目标共享实例的集中度降低(例如,图3D)。Thus, the inheritability of hs forthe target task would decrease with increasing domain-shift.此外,目标-未知实例(与类在Cuk中)比目标共享实例更可能位于低源密度区域。有了这种直觉,我们真Fs)。从源特征提取器Fs={Ms,Es}初始化Ft,并且逐渐训练F t以选择性地对齐预分类器空间(输入到G)中的共享类以避免负传递。适配涉及两个过程--继承(获取类可分性知识),边)和调谐(以避免负转移)。继承。如第4.2a,对于具有较高分类能力的目标样本,W.随后,我们基于w(xt)选择前k个百分位目标实例,并使用定义满足以下条件的可继承性度量W源模型l,yp=argmaxci∈Cs[σ(G(Fs(xt)]ci.我们-Exsp xw(xs)≥Extqshw(xt)≥ Extqukw(xt)(5)通过交叉熵损失,我们执行目标预测以匹配这些实例的伪标签,从而在-我们利用分类器置信度来实现实例级的可继承性度量,如下所示,继承类可分性知识,Linh=LCE(σ(G(Ft(xt),yp)(8)w( x)=maxci∈Cs[σ(G(Fs(x)]ci(6)调整。 在没有标签信息的情况下,熵最小-其中σ是softmax激活函数。请注意,al-虽然softmax应用于G的整个输出,但max是在对应于Gs的输出上进行评估的(图中蓝色阴影部分)。2)。我们假设,这一措施遵循方程。5,因为源实例(在高密度区域中)接收最高的Gs置信度,其次是目标共享实例(其中一些远离高密度区域),而目标未知实例接收最低置信度(其中许多远离高密度区域12381[27]第27话:被人欺负了。未标记的实例向高置信度区域的方向移动然而,为了避免负转移,我们在损失公式中使用w作为软实例权重,而不是直接应用熵最小化具有较高w的目标实例被引导向高源密度区域,而具有较低w的目标实例被推入负源密度区域。积极的地区(见图。3D →E)。这种分离是最大限度地减少负迁移影响的关键。12382Σ不不不^不而h不qsh不不M在一个粗略的级别上,使用分类器G,我们获得实例属于共享类的概率S设s∈C[σ(G(Ft(xt)]ci. 优化后续损失鼓励共享类和未知类的分离Lt1=−w(xt)log(s)−(1−w(xt))log(1−s)(9)为了进一步鼓励共享类在精细水平上的对齐,我们单独计算概率vec-节中5我们验证,在适应过程中,目标预测的精度随着时间的推移而提高这种自我监督与正确标签的数量增加,实际上,类似于具有更大的样本量m在方程。12个。因此,适应收紧了方程中的边界。12(见补编)。5. 实验在本节中,我们评估了unsuper的性能-用于Gsas,zsh的=σ(Gs(Ft(xt),且对Gn为,使用可继承模型的约束开集域自适应zuk=σ(Gn(Ft(xt),并使下列损失最小,Lt2=w(xt)H(zsh)+(1−w(xt))H(zuk)(10)5.1. 实验细节a)数据集。Office-31由31个类别组成,其中,H是香农总损失Ltune=Lt1+Lt2选择性地对齐共享类,同时避免负传递。因此,最终的适应损失是,La=Linh+Ltune( 11)我们现在讨论这种自适应的成功从理论上讲,程序。4.3.理论见解我们定义的遗传性标准方程。1用于将任务特定知识转移到目标域。要证明类可分性的知识确实是不可遗传的,只要证明可遗传性准则对共享类成立就足够了推广文[1]中的定理3,得到如下结果.结果1. 设H是VC维D. 设S是从下式中抽取的m个点的标记样本集,三个不同领域的图像:亚马逊(A),网络摄像头(W)和DSLR(D)。BASE-Home [49]是一个更复杂的数据集,包含来自四个领域的65个类:真实世界(Re),艺术(Ar),剪贴画(Cl)和产品(Pr)。VisDA[36]包括来自两个领域的12类图像:真实(R),合成(S)。对于我们所有的比较,标签集Cs,Ct与[24]和[39有关示例图像和更多详细信息,请参见附录。b) 实施. 我们在Py- Torch中实现了该框架,并使用ResNet-50 [12](直到最后一个池化层)作为Office-31和Office- Home的骨干模型Ms和Mt,以及VisDA的VGG-16 [43]。 对于可继承的模型训练,我们使用64的批量大小(每个32个源实例和负实例),并使用超参数d=15和K=4| Cs|. 在自适应期间,我们使用的批大小为32并设置超参数k=15。我们把它正常化-物料重量w(xt)与每批B的最大重量,qsh. 如果^ht∈H是S上的经验极小元,不(二)最优假设ξqsh = argminh∈HI.E. w(x)/maxw(x)。在推理过程中,一个未知数对于qsh,则对于任何δ∈( 0,1),我们有概率为至少1-δ(在样本选择上),我否则,共享类标签为预测了更多详情请参见补充。(^h)≤(h)+4。2d10g(2(m+1))+2l0g(8/δ)(十二)c) 指标. 在[39]中,我们计算开集准确度(OS),通过对|Cs|+1类(将目标-未知视为单个关于这一结果的推导,见补充材料。Es-本质上,使用m个标记的目标共享实例,可以类)。同样,共享精度(OS*)被计算为目标共享类的类平均值(Csh=Cs)。训练一个预测器(这里是ht),它满足等式12个。然而,在这方面,在完全无监督的设置中,获得目标标签的唯一方法是利用供应商模型的知识这正是伪标记过程所实现的。使用可继承模型(hs),我们以高精度对前k个百分位目标实例进行伪标记,强制执行Linh.在这样做时,我们调节目标模型以满足等式。12,这是共享类别的可继承性标准(给定未标记的实例Dt和源模型hs)。因此,类可分性的知识在自适应过程中被注意,随着标记的目标实例的数量增加(增加m),等式(1)中的最后一项12下降在我们的公式中,这是通过强制执行Ltune来实现的,这可以被视为一种自我监督目标模型的方式xt∈B如果y∈t=argmaxc[σ(G(Ft(xt)]ci为1,则分配标号qsh123835.2. 结果a) 最先进的对比在表1-3中,我们对比了最先进的UODA方法STA [24]。其他方法的结果取自[24]。特别是,在表1中,我们报告了平均值和标准差。3次单独运行的OS和OS*偏差。由于空间限制,我们在表2中仅报告OS。显然,使用可继承模型的适配优于假设同时访问供应商我们的方法优于STA的性能描述如下。STA通过使用对抗鉴别器对齐两个域来学习域不可知的特征提取器。这就限制了模型捕捉差异的灵活性。12384表1.Office-31(ResNet-50) |Cs|= 10,|Ct|= 20。我们的表示适应使用一个可继承的模型,供应商-客户端范例,而所有其他方法在适配期间使用源域数据方法A→W A→D D→W W→D D→A W→A平均OS操作系统 *OS操作系统 *OS操作系统*OS操作系统 *OS操作系统 *OS操作系统 *OS操作系统*ResNet82.5±1.282.7±0.985.2±0.385.5±0.994.1±0.394.3±0.796.6±0.297.0±0.471.6±1.071.5±1.175.5±1.075.2±1.684.284.4RTN [27]85.6±1.288.1±1.089.5±1.490.1±1.694.8±0.396.2±0.797.1±0.298.7±0.972.3±0.972.8±1.573.5±0.673.9±1.485.486.8DANN [10]85.3±0.787.7±1.186.5±0.687.7±0.697.5±0.298.3±0.599.5±0.1100.0±.075.7±1.676.2±0.974.9±1.275.6±0.886.687.6OpenMax [3]87.4±0.587.5±0.387.1±0.988.4±0.996.1±0.496.2±0.398.4±0.398.5±0.383.4±1.082.1±0.682.8±0.982.8±0.689.089.3ATI-λ[35]87.4±1.588.9±1.484.3±1.286.6±1.193.6±1.095.3±1.096.5±0.998.7±0.878.0±1.879.6±1.580.4±1.481.4±1.286.788.4OSBP [39]86.5±2.087.6±2.188.6±1.489.2±1.397.0±1.096.5±0.497.9±0.998.7±0.688.9±2.590.6±2.385.8±2.584.9±1.390.891.3[第24话]89.5±0.692.1±0.593.7±1.596.1±0.497.5±0.296.5±0.599.5±0.299.6±0.189.1±0.593.5±0.887.9±0.987.4±0.692.994.1我们91.3±0.793.2±1.294.2±1.197.1±0.896.5±0.597.4±0.799.5±0.299.4±0.390.1±0.291.5±0.288.7±1.388.1±0.993.494.5表2.搜索结果在ResNet-50上。|= 25,|C t |= 65。|= 65. 我们的模型表示使用可继承模型的适应性。方法Ar→ClPr→ClRw→ClAr→PrCl→PrRw→PrCl→ArPr→ArRw→ArAr→RwCl→RwPr→RwAvgResNet53.4±0.452.7±0.651.9±0.569.3±0.761.8±0.574.1±0.461.4±0.664.0±0.370.0±0.378.7±0.671.0±0.674.9±0.965.3ATI-λ[35]55.2±1.252.6±1.653.5±1.469.1±1.163.5±1.574.1±1.561.7±1.264.5±0.970.7±0.579.2±0.772.9±0.775.8±1.666.1DANN [10]54.6±0.749.7±1.651.9±1.469.5±1.163.5±1.072.9±0.861.9±1.263.3±1.071.3±1.080.2±0.871.7±0.474.2±0.465.4OSBP [39]56.7±1.951.5±2.149.2±2.467.5±1.565.5±1.574.0±1.562.5±2.064.8±1.169.3±1.180.6±0.974.7±2.271.5±1.965.7OpenMax [3]56.5±0.452.9±0.753.7±0.469.1±0.364.8±0.474.5±0.664.1±0.964.0±0.871.2±0.880.3±0.873.0±0.576.9±0.366.7[第24话]58.1±0.653.1±0.954.4±1.071.6±1.269.3±1.081.9±0.563.4±0.565.2±0.874.9±1.085.0±0.275.8±0.480.8±0.369.5我们60.1±0.754.2±1.056.2±1.770.9±1.470.0±1.778.6±0.664.0±0.666.1±1.374.9±0.983.2±0.975.7±1.381.3±1.469.6表3. VisDA(VGGNet)上的结果。|= 6,|Ct |= 12。|= 12. 我们表示使用可继承模型的适应。方法合成→真实目标域中的多样性,这是由于需要跨两个域进行概括,加上对抗过程的额外训练困难。相比之下,我们采用了特定于目标的特征提取器(Ft),它允许目标预测器有效地调整到目标域,同时继承类可分性知识。因此,可继承模式为UODA在实践中提供了一种有效的解决方案。b) 超参数敏感性。在图4中,我们绘制了用于训练供应商模型(K,d)的超参数值范围上的自适应性能(OS对这些超参数的低敏感性突出了可遗传模型的可靠性。在图5C中,我们绘制了Office-31上k值范围内的自适应性能(OS)。具体地,k = 0表示不强制Linh的消融。很明显,性能在不断提高-这证实了在适应期间继承c) 开放性(O)。在图5A中,我们报告了不同开放度水平的OS准确度[41]O=1-|Cs|/|Ct|. 我们的方法在广泛的开放性上表现良好,有效缓解负迁移的能力。d) 域差异。如[2]中所讨论的,经验域差异可以使用代理A-距离dA=2(1−2)来近似,其中是域的泛化误差我们计算PAD值在图2中的目标共享和目标未知实例的预分类器空间处,6B按照[ 10 ]中规定的程序。使用我们的模型评估的目标共享实例的PAD值远低于源训练的ResNet-50模型,而目标未知的PAD值高于源训练的ResNet-50模型。这表明适应将源和目标共享的分布对齐,同时分离出目标未知的实例。5.3. 讨论a) 模型遗传力(I)。在SEC的直觉。4.2a,我们评估了Office-31上任务D→W和A→W的模型继承性(I)。图我们观察到,对于目标W,在源D上训练的可继承模型表现出比在源A上训练的模型更高的I值。因此,适应任务D→W比A→W实现了更好的性能,这表明具有更高模型继承性的供应商模型是更好的候选以执行对给定目标域的适配。因此,给定一系列可继承的供应商模型,客户端可以通过测量I来可靠地为目标域选择最合适的模型。选择供应商模型而不需要供应商供应商-客户模式在实践中的应用b) 实例级可继承性(w)。在图5D中,我们示出了分别针对靶组织绘制的w(xt)值的直方图A.敏感性B.敏感性自行车总线车m周期火车卡车OS操作系统*OSVM [15]31.751.666.570.488.520.852.554.9MMD+OSVM39.050.164.279.986.616.354.456.0DANN+OSVM31.856.671.777.487.022.355.557.8ATI-λ[35]46.257.556.979.181.632.759.959.0OSBP [39]51.167.142.884.281.828.062.959.2[第24话]52.469.659.987.886.527.266.863.912385A. 不同的开放性设置图5. A)Office-31在各种OpennessO设置上的适应性能。B)在Office-31的A→D任务上的适应期间,最高置信度百分位目标实例的目标预测器的精度。C)对hyperparam的敏感性。K. D)A→D任务上目标共享和目标未知实例的实例级可继承性值的直方图。最好用彩色观看。A. 预分类器空间t-SNESTAoursB. 代理距离目标共享目标-未知C. 模型遗传性绿色:源蓝色:目标共享红色:目标-未知图6. Office-31上的结果。A)t-SNE [30]任务A→D的预分类器空间的可视化(红色:目标-未知,蓝色:目标共享,绿色:来源)。B)代理A-预分类器空间处的目标共享实例(越低越好)和目标未知实例(越高越好)的距离。C)针对目标W测量的在A和D上训练的供应商模型的模型可继承性。最好用彩色观看。共享和目标-未知实例,用于Office-31数据集中的任务A→D这从经验上验证了我们的直觉,即可继承模型的分类器置信度等式中的不等式5、至少在一定程度上现有标准数据集的域转移c) W的可靠性。由于过度置信问题的缓解,我们发现分类器置信度是一个很好的候选人,选择目标样本进行伪标记。在图5B中,我们基于目标预测器置信度绘制了前k个百分位目标实例的预测准确度(maxci∈Cs[σ(G(Ft(xt)]ci)。明确地,epoch-0的曲线图示出了伪标记精度,因为目标预测器是用源预测器的参数初始化的。可以看出,前15个百分位数样本的预测精度接近1。作为adap-在下图中,Ltune提高了目标模型的预测性能,这可以被视为图中的上升。图5B.因此,在Eq. 12在适应过程中被拧紧。这验证了我们在SEC中的直觉。4.3d) 定性结果。在图6A中,我们绘制了任务A→D上使用STA [24]和我们的方法训练的目标预测器的最后隐藏层(预分类器)特征的t-SNE [30]嵌入。很明显,我们的方法尽管没有原始数据,适应,这表明可继承的模型确实可以在缺乏源数据集的情况下促进适应。e) 训练时间分析。 我们展示了使用可继承的模型。 考虑一个-一个客户端具有标记的源域A,两个客户端分别具有目标域D和W。使用最先进的方法STA [24](需要标记的源数据集),每个客户端使用源数据进行适配所花费的时间平均为575 s(总计1150 s)。相比之下,我们的方法(与两个客户端共享单个供应商模型)导致250 s的供应商源训练时间(功能拼接:77秒,K-平均值:66秒,训练:154次),每个客户平均调整69次(共138次)。因此,可继承模型通过减少多个客户端情况下的源代码训练成本(STA:1150 s,我们的:435 s)。实验详情见附录。6. 结论在本文中,我们介绍了一个实用的供应商-客户端的范例,并提出了可继承的模型,以解决开放集DA在共存的源和目标域的情况下此外,我们提出了一种客观的方法来衡量继承性,使选择一个合适的源模型为给定的目标域,而不需要访问源数据。通过广泛的实证评估,我们使用可遗传模型证明了最先进的开集DA性能。作为未来的工作,可继承模型可以扩展到涉及多个供应商和多个客户端的问题。鸣谢。这项工作得到了Wipro博士奖学金(Jogendra)和 Uchhatar Avishkar Yojana ( UAY , IISC 010 ) ,MHRD,Govt的资助。印度。B. 置信度测度的可靠性C. 敏感性D. 遗传度直方图12386引用[1] Shai Ben-David 、 John Blitzer 、 Koby Crammer 、 AlexKulesza 、 FernandoPereira 和 JenniferWortmanVaughan。从不同领域学习的理论Machine learning,79(1-2):151-175,2010. 6[2] Shai Ben-David , John Blitzer , Koby Crammer , andFernando Pereira.域适应的表示分析。InNeur
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Java集合ArrayList实现字符串管理及效果展示
- 实现2D3D相机拾取射线的关键技术
- LiveLy-公寓管理门户:创新体验与技术实现
- 易语言打造的快捷禁止程序运行小工具
- Microgateway核心:实现配置和插件的主端口转发
- 掌握Java基本操作:增删查改入门代码详解
- Apache Tomcat 7.0.109 Windows版下载指南
- Qt实现文件系统浏览器界面设计与功能开发
- ReactJS新手实验:搭建与运行教程
- 探索生成艺术:几个月创意Processing实验
- Django框架下Cisco IOx平台实战开发案例源码解析
- 在Linux环境下配置Java版VTK开发环境
- 29街网上城市公司网站系统v1.0:企业建站全面解决方案
- WordPress CMB2插件的Suggest字段类型使用教程
- TCP协议实现的Java桌面聊天客户端应用
- ANR-WatchDog: 检测Android应用无响应并报告异常
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功