没有合适的资源?快使用搜索试试~ 我知道了~
9697基于对比对张宇航1,张晓鹏3,谢玲喜3,李杰1,罗伯特C. 邱1*,胡恒通2,齐田31上海交通大学2合肥工业大学3华为公司{hang universe,lijiecs,rcqiu}@ sjtu.edu.cn,huawei.com{huhengtong.hfut,zxphistory,198808xc} @ gmail.com摘要如何以更少的标签成本获得更好的效果仍然是一项具有挑战性的任务。在本文中,我们提出了一个新的主动学习框架,首次将对比学习纳入最近提出的一位监督。 这里,一位监督表示简单的Yes标记池注释器未标记样本池标记池未标记样本池或者不查询模型预测的正确性,并且比以前需要为查询样本分配准确标签的主动学习方法更有效。我们认为,这样的一位信息本质上符合对比损失的目标,即把阳性对拉在一起,把阴性样本推开。为了实现这一目标,我们设计了一个不确定性度量来主动选择查询样本。然后根据查询结果将这些样本送入不同的分支。Yes查询被视为查询类别的正对以进行对比拉取,而No查询被视为硬负对以进行对比排斥。此外,我们设计了一个负损失,惩罚负样本远离不正确的预测类,这可以被视为优化相应类别的硬阴性我们的方法,被称为ObCP,产生一个更强大的主动学习框架,并在几个基准测试的实验证明了它的优越性。1. 介绍主动学习在许多现代机器学习系统中特别有用,在这些系统中,数据可能足够,但标签稀缺或获取成本高昂[12,14,24,25]。主动学习的关键假设是,如果模型已经知道哪些样本应该被标记以帮助提高预测性能,则可以使用较少的标记样本来构建通常,主动学习算法基于当前模型的预测结果迭代地选择要标记的样本。一旦样本被标记,它们就被添加到训练集中,并且这样的过程*通讯作者传统主动学习1位主动学习图1.传统的主动学习和一位监督之间的差异说明。后者利用了一个简单的是或否查询模型的预测的正确性,在本文中,我们采用一位监督在我们的主动学习框架,并结合对比学习的联合优化。直到标记的预算用完为止。然而,传统的主动学习策略通常受到用准确标签注释样本的约束,即,一个样本属于哪一类虽然标签很难记住和区分所有类别,特别是当类别数量增加时,如ImageNet [7],它由1K个类别组成。最近,提出了一种称为一位监督[ 18 ]的新型主动注释方法,其通过回答简单的是或否问题来用一位信息标记样本,即,无论图像是否属于指定的类别C,该方法都可以在相同的监督量下更有效地促进学习过程。例如,如果我们可以得到模型对未标记数据的预测,我们只需要询问标记器“模型预测这个样本正确吗?” 与传统的标记过程相比,该查询策略在比特信息方面更有效,因为对于C类分类问题,准确标记样本需要log2C比特的信息,而1比特查询只需要1比特。这意味着,使用相同数量的注释,我们可以查询更多的样本,从而获得更多的信息。传统主动学习和一位方法之间的差异如图1所示。然而,错误的一位方法[18]只使用正确的预处理,准确的标签选取样本模型是的预测正确吗?选取样本注释器模型9698传统的有监督学习方法虽然能很好地处理否定查询等信息,但不能充分利用否定查询等信息,从而限制了其性能。一位监督返回Yes或No结果,基于此,我们能够获得两个样本(一个是查询样本,另一个是来自查询类别的随机样本)是否来自同一类别的信息,这让人想起最近的对比学习策略[15]。在对比学习中,目标是学习一个编码器,该编码器能够将正对映射到相似的表示,同时在嵌入空间中推开那些负我们声称,对比损失本质上是根据一位查询,我们可以简单地对待肯定的对,而那些没有查询作为负对。通过这种方式,我们能够充分利用查询结果。为了实现这一目标,我们开发了一种新的主动学习方法,将半监督学习和对比学习与有效的一位监督相结合。具体来说,首先,我们通过结合监督交叉熵损失和对比损失来联合训练模型,并获得下一阶段一位查询的预训练模型。然后,我们开发了一种不确定性度量方法,该方法基于模型在训练过程中预测的方差根据查询结果,为了正确预测Yes查询,我们扩展了对比损失函数,以允许在每次前向传播过程中有多个正样本,从而将具有相同地面真值标签的图像拉在一起以进行紧凑表示。而对于没有查询结果的错误预测,我们将这些错误的负标签信息集成到对比学习中,以帮助这些样本远离它们的查询类。此外,我们设计了一个负损失,惩罚负样本远离不正确的预测类,这可以被视为相应类别的优化硬负将一位监督集成到对比学习中产生了一个更强大的框架,在几个著名数据集上的实验结果证明了它的优越性。总的来说,我们将我们的贡献总结如下:• 本文提出了一种新的主动学习框架,首次将对比学习与一位我们希望这个框架能为主动学习社区的研究提供一些启示,并为未来的研究提供一个可能的方向。• 我们在几个广泛使用的图像分类基准上取得了显著的领先性能特别是在ImageNet上,只有10%的标签信息,ObCP超过了之前使用30%标签的最先进技术。2. 相关工作我们的方法与对比学习和主动学习的最新进展密切相关我们简要地回顾了相关的工作,并澄清他们之间的差异和我们的方法。2.1. 主动学习主动学习是一种有效利用标签信息的方法,其目的是通过选择最能提高模型性能的高价值数据来最小化标签成本,在现代机器学习系统中发挥着重要作用。它可以分为三类。第一类是基于不确定性的方法,通常使用预测的概率分布[6]。基于多样性的方法是第二类,选择最大限度地扩展输入空间并代表未标记池的整个分布的不同样本[14,24]。最后一类是基于模型性能变化,其选择会导致当前模型参数发生最大变化的数据点,并鼓励最佳模型改进[9,26]。除了上述三个类别之外,[18]还提出了一位监督,这可以被认为是一种新型的主动学习,它只查询类级别中信息量最大的部分与上述工作不同的是,我们的方法可以更有效地利用标签信息,通过结合一位监督和半监督对比学习。2.2. 对比学习近年来,对比学习[4,5,8,13,15,17,23]引起了广泛的关注。它把每一个意象及其扩充都看作是同一类,而把其他意象看作是否定的。研究人员使用不同的方法来维持训练队列。 在[30]中使用内存库来存储预先计算的表示,在给定查询的情况下,从这些表示中收回正例。在此基础上,[15]中使用动量更新机制来维护用于对比学习的长负样本队列,而[4]使用大批量来产生足够的负样本。[3]采用了一组可训练的[22]解决了基于对比预训练的少标签迁移问题。这些工作证明了对比学习在学习数据特征方面取得了更好的性能。以前的基于对比的半监督学习工作几乎是两阶段的,即, 使用对比学习来预训练骨干模型,然后使用少量的镜头标记数据对其进行微调。该方法以端到端的方式将对比学习与半监督学习相结合,并引入一位监督来帮助对比学习生成其正样本和负样本,这将有助于模型最大限度地利用注释。9699LLLLLLLLLL联系我们...负推力正拉模型……根据yc添加到是的一位查询没有… …-是的..标记样本池正确标记阴性标记yc标记特征未标记的数据集图2.我们在查询阶段的管道的说明。一位查询将在我们的不确定性测量模块选择的未标记的样本中操作。之后,正确的预测将被添加到标记池中,不仅用于监督损失,还用于对比学习。对于不正确的预测,将利用它们生成用于对比的负样本,并通过设计的负损失进行优化。3. 方法3.1. 框架概述我们首先给出了一个概述所提出的主动学习框架。为了更好地理解,我们将整个过程分为两个阶段。该模型首先使用地面真值标签进行训练,对标记数据使用传统的交叉熵监督损失值,对未标记数据使用原始的对比损失值,从而为下一个数据挖掘阶段生成预训练模型。然后,如图2所示,一旦模型被初始化,我们使用所提出的不确定性估计标准,从未标记池中自由地选择样本进行主动学习过程只需要返回被查询的问题是否正确,我们将其表示为一位查询。根据查询到的Yes或No结果,将样本送入不同的分支进行训练,即对于具有准确标签的Yes查询,我们将样本添加到监督损失项sup和对比损失项ctr中,而对于仅知道样本不属于某个类别的No查询,我们将这些样本视为查询类别的硬这些样本被用于双重训练,一方面,我们将其纳入对比损失项ctr并突出显示为查询类别的硬负样本,另一方面,我们设计了一个负损失函数neg,使这些样本远离Noquestioned标签。总损失可表述为:L=Lsup+λctrLctr+ λneg Lneg(一)其中监督损失被定义为sup=H(p,y),p和y表示预测和地面实况标签,re-tap,并且H(·)表示常规交叉熵损失。 Lctr是在不同条件下出现的修正对比度损失。根据样品的标记状态的不同格式。NEG是使硬负样本远离查询类别的负损失项。λctr和λneg是分别控制两个损失的权重的两个平衡因子。注意,与传统的主动学习过程类似,查询和模型训练是互换的,并且我们能够在模型训练期间方便地控制查询次数,直到查询预算用完。详细分析请参见图6。此外,那些具有不正确预测的样本可以在下一个查询阶段被查询。整个流水线在算法1中给出。在接下来的部分中,我们首先阐述了如何通过设计不同的损失分支来处理不同的查询结果,以及如何更新相应的损失。然后,我们描述了我们的样本选择的不确定性估计标准。3.2. 一位查询的对比损失在本节中,我们将详细说明如何为不同水平的注释样本构建对比损失项ctr对于C类别分类任务,表示二元标签yc0,1C,其中只有第c个维度为1,而其他维度为0。给定查询的类别c,未标记的样本X可以在主动查询过程期间被分类为三个条件,即,Yes查询意味着y c是准确的标签;No查询表示y c为否定标签,也表示x肯定不属于类别c;未标签状态,不进行主动查询过程。ctr用于未标记的数据。对于我们没有任何可用的人类反馈标签先验的未标记数据,我们简单地使用原始对比损失Lcu[15]来优化它。9700−−LLLLDDLLU∈DDD∈DD D\L LLL L LLL----LΩk∈M·ΩΣ·C算 法 1 基 于 对 比 学 习 的 一 位 监 督 框 架输入:标记池为1,未标记池为u,阶段1的时期为T1,阶段2的时期为T2。1:对于t = 0,. - 是的- 是的 ,T11做第二阶段:第一3:训练模型,sup+λctrcu第四章: 端5:对于t = T1,. - 是的- 是的 ,T21 do6:第二7:从以下各项中选择K个样本u以形成查询池q使用 (x)8:对于样品x/q,9:使用x计算Cu10:结束11:f或样本x及其预测y∈qdo12:如果Y是正确的,13:lx,ux图14:使用y=0来生成Cl15:其他16:使用y值生成ng ativ,Cn17:使用y计算neg18:如果结束19:结束第20章 :对比损失ctr=cu+cl+cn第21章:训练模型sup+λnegneg+λctrctr22:结束其中,每个标记的样本q被两个视图k+和k+拉出,并且与存储体M中的其他样本一起被推开。毫无疑问,在对比训练中加入类的先验知识将更有利于分类任务的完成。具体的好处将在第二节中显示。4.4ctr表示无查询。如果样本x的预测yc在查询阶段不正确,这意味着样本x肯定不属于类别c。将yc表示为样本x的负标记,我们可以从这种不正确的预测中推断出,模型不能轻易区分x和c类,因为它们在特征空间中具有一定的相似性,因此将c类的特征推开将有利于模型的训练。为此,我们重新设计了一个合理的生成方法,在对比学习中的负样本的预测不正确的样本。在先前的对比学习方法中,通过从其他图像采样视图来简单地形成负对,其被表示为M= k1,.,kK。而在我们的方法中,我们首先创建一个标记的特征集L来存储R1的特征,然后对N个特征ni进行采样,i = 1,.,N,N,
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)