没有合适的资源?快使用搜索试试~ 我知道了~
2070基于在线注意力积累的蒋鹏涛1侯启斌1曹阳1程明明1 *魏云超2熊宏凯31TKLNDST,CS,南开大学2UTS3上海交通大学pt. mail.nankai.edu.cncmm@nankai.edu.cn摘要由图像分类器生成的对象注意图通常被用作弱监督分割方法的先验。然而,正常的图像分类器只在最有区别的对象部分产生因此,如何在弱监督的情况下有效地识别整个对象区域一直是一个具有挑战性和有意义的问题。我们观察到,在训练过程中,分类网络产生的注意力地图为了积累发现的不同对象部分,我们提出了一种在线注意力积累(OAA)策略,该策略为每个训练图像中的每个目标类别维护一个累积注意力图,以便随着训练的进行,可以逐渐提升完整的对象区域。这些累积的注意力地图反过来又可以作为像素级的监督,这可以进一步帮助网络发现更多完整的对象区域。我们的方法(OAA)可以插入到任何分类网络,并逐步积累的判别区域到整体对象的训练过程中去。尽管它的简单性,当应用所产生的注意力地图的弱监督语义分割任务,我们的方法,proach改进了现有的国家的最先进的方法的PASCAL VOC 2012分割基准,实现了66分的mIoU分数。4%的测试集。代码可在https://mmcheng.net/oaa/上获得。1. 介绍受益于大规模像素级训练数据和先进的卷积神经网络(CNN)架构,全监督语义分割方法,如[4,20,22,42,38],最近取得了很大进展。然而,构建大规模像素精确的数据集是相当昂贵的,并且需要相当多的人力。*M.M. 程是通讯作者。鸟鸟鸟猫猫猫总总总线线线人人人沙沙沙发发发图1.观察我们提出的方法。(a)源图像;(b-d)由分类网络在不同训练阶段产生的中间注意力图;(e)通过简单的逐元素最大化操作组合(b)、(c)和(d)中的注意力图产生的累积注意力可以容易地观察到,区分区域在语义对象的不同部分上连续地移位。与(b)、(c)和(d)相比,(e)中的融合注意力图可以记录大部分语义区域最好用彩色观看。努力和时间成本。为了节省人力,研究人员建议使用弱监督来学习语义分割,例如边界框[27],点[2],甚至图像级注释[26]。在这些弱监督中,图像级注释比其他注释更容易因此,在本文中,我们专注于图像级监督下的语义分割。由于能够发现有区别的注意区域,分类模型[43,29]已被广泛用于弱监督语义分割任务,以生成初始类特定种子。然而,所发现的区域通常集中在语义对象的小部分上,这限制了分割网络学习丰富的像素级语义知识的能力后来的方法考虑利用对抗性擦除策略[35,40]2071来挖掘更多的语义区域不幸的是,随着训练过程继续,区分区域扩展,并且因此一些不期望的背景材料也被预测为前景。在[37]中,为了产生注意力,重新审视了扩张卷积。然而,具有较大膨胀率的卷积层通常导致噪声区域的出现。上述方法的一个共同点是它们都利用最终的分类模型来生成注意力地图。本文从一个新的视角考察了注意力的产生过程我们观察到,在分类网络达到收敛之前,在不同的训练阶段发现的区分区域主要原因可以简单概括如下:• 首先,一个强大的分类网络通常寻求一个特定类别的强大的共同模式,使所有的图像从这样的类别可以很好地识别。因此,那些难以正确分类的训练样本将驱动网络在选择共同模式时做出改变,导致注意区域不断转移,直到网络达到收敛。• 其次,在训练阶段,由当前注意力模型产生的注意力图因此,具有不同内容的图像和训练图像的输入顺序都会导致中间注意图中的区分区域的变化更有趣的是,我们还观察到在不同训练阶段发现的区分区域通常是互补的,这反映了利用中间注意力图来检测完整对象的重要性图1(b-d)给出了这种现象的清楚图示,其示出了随着训练过程的继续,注意区域的变化。如果这些歧视性的地区,在中间的注意力地图可以记录,我们可以成功地促进检测完整的语义对象的能力,只有图像级的监督。基于上述观察,我们引入了一种简单而有效的注意力生成方法,该方法能够考虑分类网络的中间状态。具体来说,我们提出了一个在线注意力累积(OAA)策略,其中每个类别的累积注意力图在每个图像中保持顺序累积的区分区域产生的分类网络在不同的训练阶段。 中间注意力图的互补性使得发现完整的语义对象成为可能(参见图1B)。1 e)。尽管与CAM [43]相比,OAA的注意力区域相对完整,但对象区域中的一些注意力值仍然不够强。改善这种在这种情况下,我们进一步设计了一个混合损失函数(增强损失和约束损失的组合),通过将累积注意力图作为软标签来训练通过这种方式,新的注意力模型改进了OAA策略,并且可以生成更多完整的对象区域。为了评估我们的方法的注意力地图的质量,我们进行了一系列的消融实验,并将其应用于弱监督语义分割任务。 我们在流行的PASCAL VOC 2012分割基准[8](平均IoU得分为66)上显示了对现有方法的显着改进。4%的测试集)。我们希望OAA的思想能够促进注意模型的发展,甚至在未来的其他研究领域2. 相关工作在本节中,我们简要回顾了注意力模型的历史,并描述了与我们的工作密切相关的弱监督语义分割方法。2.1. 视觉注意到目前为止,已经提出了一些突出的工作,以获得高质量的关注。作为早期的尝试,Si- monyan等。[31]使用错误反向传播策略来可视化语义区域。后来,CAM [43]通过使用全局平均池化(GAP)层来卷积神经网络以检测类激活映射来展示其能力。基于CAM,Grad-CAM [29]提出了一种技术,用于通过将梯度流入最终卷积层以产生粗略的注意力图来为任何目标概念(如图像分类,VQA和图像captioning)产生视觉解释。此外,一些研究人员受到自上而下的人类视觉注意 力 系 统 的 启 发 , 提 出 了 一 种 名 为 Exci- tationBackprop的新方法[39],该方法通过概率赢家通吃过程在网络中分层向下传播自上而下的信号。最近,与上述解释网络的方法不同,一些工作[40,19,37,14,41]通过定位语义对象的大而完整的相关区域来产生注意力地图,以进行弱监督语义分割。所有上述方法都利用最终的分类模型来产生注意力。除了自上而下的视觉注意之外,最近的研究[34,13,37]还发现自下而上的显著对象线索[12,33,6]对于提取背景线索非常有用。2.2. 弱监督语义分割弱监督语义切分也取得了很大的进展,提出了多种方法。在这些方法中,我们只介绍了一些与我们的工作密切相关的图像级监督分割方法。主流方法[18,34,15,37,1]使用注意力图作为初始种子。2072输入分类损失关注...类感知卷积层的1一个2一个3的T间隙全局平均池化AFAFAFA1→M1AF注意力融合操作M1M2MT-1MT在线注意力累积(OAA)电视监视器间隙图2.我们的在线注意力积累(OAA)过程的插图。注意力图是从类感知卷积层在线生成的。我们的OAA在不同的训练阶段利用这些区分区域的注意力地图,并将它们集成到累积的注意力地图与一个简单的注意力融合策略逐步。通常,SEC [18]引入了三个损失函数,称为播种,扩展和边界约束损失,以扩展初始种子,同时训练分割模型。然而,这些方法的性能是有限的,因为对象相关的种子只覆盖小而稀疏的语义区域。最近,研究人员提出了多种基于分类网络的完整对象区域挖掘方法。在[35]中,Weiet al.提出了一种使用对抗性擦除(AE-PSL)策略逐步挖掘对象的不同区域以获得密集[32]第32话我的心首先,在全卷积主干的顶部添加三个卷积层,每个卷积层后面都有一个用于非线性变换的ReLU层。然后添加具有内核大小为1×1的C通道的类感知卷积层以捕获注意力。这里C是类别的数量令F是类感知卷积层的输出。考虑到某些图像可能有多个类别,我们将整个训练过程视为C二进制分类问题。预测目标类别c的概率可以通过下式计算:地图然而,AE-PSL的程序是复杂的,其需要重复的训练程序并且需要学习多个步骤。.pc=σGAP(FΣ),(1)三个分类模型以获得不同的对象区域。GAIN [19]通过使用注意力地图来改进对抗性擦除策略,以提供一种自我指导,迫使网络将注意力整体地集中在对象上。3. 方法其中GAP是全局平均池化操作,并且σ(·)是S形函数。交叉熵损失用于优化整个网络。为了获得给定图像I的注意力图,首先将特征图F馈送到ReLU层中,然后执行简单的归一化操作以确保每个注意力图中的值范围从0到0。在本节中,我们描述了我们提出的1:方法,并详尽地解释我们的框架中每个组件的工作机制。图3示出了的c=ReLU(Fc)max(Fc).(二)我们方法的整个框架。3.1. 注意力生成在本文中,我们采用CAM [43]作为我们的默认区分区域生成器。为了在训练阶段获得注意力图,我们使用最后一个卷积层输出的特定于类别的特征图来生成注意力图,这与CAM中的注意力生成过程相同基本架构可以在图的顶部找到。二、像大多数以前的工作[40,37],我们也采用VGG-然后,我们将在不同训练阶段生成的注意力地图应用到OAA过程中。3.2. 在线注意力积累为了有效地实现我们的观察,我们提出了一个在线注意力积累(OAA)策略。当训练图像在不同的训练时期被馈送到网络中具体地说,如图1所示。2,对于给定训练图像I中的每个目标类c,我们建立累积注意力图Mc,其用于保留C...2073在线注意力积累整体注意学习…培训图像类激活图(CAM)在不同的时期累积关注软标签标签培训图像输入整体注意力模型最终关注输入分类模型高龄津贴图3.我们的OAA+方法的管道。将分类网络在不同训练时间产生的注意力图融合到累积注意力图中,以尽可能完整地挖掘对象区域然后利用获得的累积注意图作为像素级监督来训练整体注意模型,进一步提高了注意图的质量发现的有区别的区域。我们的OAA首先在第一时期使用类别c的注意力图A11当训练图像第一次输入到网络时获得A1)以初始化累积注意力图M1。然后,当图像第二次输入到网络时,OAA根据以下融合策略通过组合M1和新生成的注意力图A2来更新累积注意力探索OAA的平均融合策略。然而,与最大融合策略相比,性能下降了1.6%的mIoU分数。节中4.3,我们进行消融实验,以显示这两种融合策略之间的差异值得一提的是,由于分类模型较弱,在训练过程开始时可能会集中在噪声区域,因此我们使用预测概率.M2=AFM1,A2Σ、(3)来决定我们是否积累相应的注意力地图。特别是,如果分类-其中AF(·)表示注意力融合策略。类似地,在第t个时期 ,OAA 使用 注意力 图At来更 新累积 注意力图Mt−1,得到目标类别的注意力得分高于所有非目标类别的注意力得分,我们在OAA中积累目标类别的注意力地图。否则,我们会放弃这个注意力地图来避免噪音。.Mt= AFMt−1,AtΣ.(四)3.3. 走向整体注意学习OAA连续重复上述更新过程,并且我们可以获得最终的累积注意力图,直到分类模型收敛。在上述更新过程中,注意力融合策略负责保留这些中间注意力图的区分区域,以构成更完整的对象区域。关于融合策略,我们提出了一个有效而简单的,这是元素的最大值操作。它取注意力图At和当前累积注意力图Mt−1之间的最大注意力值,公式如下:OAA在训练阶段整合不同时期的注意力图,以产生更多完整的对象区域。然而,OAA的缺点是,一些具有较低注意值的对象区域不能通过分类模型本身来增强。考虑到这种情况,我们引入了一个新的损失函数,通过将累积注意力图作为监督来训练积分注意力模型,以进一步改进我们的OAA,命名为OAA+。具体来说,我们使用累积注意力地图作为.ΣMt= AFMt−1,At =max.Mt−1,AtΣ.(五)如[36]中所做的软标签。每个关注值被视为位置属于相应位置的概率最大化融合策略的OAA能有效地将不同的可区分对象区域保存到累积注意图中。如图5,由OAA生成的累积注意力图比由CAM生成的注意力图具有更多的完整区域[43]。我们也响应目标类。我们采用图1所2没有全局平均池化层和分类损失作为我们的整体注意力模型。给定由类别aw是卷积层产生的得分图F,位置j是某个类别c的概率可以表示为qc=σ(Fc),其中σ是sigmoid函数。J J1这里,为了方便起见,我们省略了类c因此,在图1中使用的类别c的多标签交叉熵损失是2074JNJ++++J−−J+−−JJ1+ −[36] 可以写成:1Σ。c c c cΣ−4. 实验为了证明我们方法的有效|N| j∈Npjlog(qj)+(1−pj)log(1−qj)、 (6)我们应用OAA和OAA+其中表示归一化的累积注意力图中的值在优化之后,增强的注意力图可以直接从类感知的卷积层获得然而,利用上述多标签交叉熵损失函数,所产生的注意力图倾向于部分地覆盖语义对象区域原因是方程中的损失函数。(6)优选将具有低类别特定注意值(pc1-pc)的像素分类为类别c的背景。<考虑到上述讨论,我们提出了一种改进的混合损耗。给定类别c的范围从0到1的累积注意力图,我们首先将其划分为软增强区域Nc和软约束区域Nc,其中c包括pc=0的像素,并且Nc包含其他像素。像素对于像素集Nc,我们移除等式(1)的最后一项。(六)以便进一步促进关注区域而不抑制具有低关注值的区域形式上,我们有Nc的损失函数为ΣC c c作为弱监督语义段的启发式线索站任务我们使用注意力图来提取对象线索,使用显著性图[12]来提取背景线索。然后利用这些线索来生成伪分割注释。我们将最大值对应的类别标签分配给代理分割标签中的像素。所有冲突的像素都被忽略用于训练。从上述方法生成的代理地面实况用于训练分割模型。在以下小节中,我们提供了一系列消融研究,并将我们的方法与之前最先进的方法进行了比较。4.1. 数据集和设置。数据集和评估指标我们在PASCAL VOC 2012分割基准[8]上评估了我们的方法,该基准包含20个语义类别和背景。与大多数以前的工作一样,我们也使用增强训练集[9]进行模型训练。因此,我们总共有10,582张训练图像在测试阶段,我们L+= −|Nc|j∈Ncpjl〇 g(qj)。(七)将我们的方法与以前的方法进行验证和测试集的平均交叉,由于这里仅给出图像级标签,因此由于语义对象的不规则形状,累积注意力图中的注意力区域通常包含非目标像素。因此,在Eq.(7)中,我们使用p_c而不是1作为基础事实标签,使得非语义区域上的累积注意力图中的较低注意力值对网络几乎没有负面影响对于其中pc=0的Nc,联合(mIoU)评估度量。由于测试集的分割注释不是公开的,我们将预测结果提交给官方PASCAL VOC评估服务器以获得分数。网络设置。对于分类网络,超参数设置如下:小批量大小(5)、权重衰减(0.0002)和动量(0.9)。初始-j方程中的损失函数(6)折叠成以下形式:学习率设置为1 e-3,在20000之后除以10C1−=−|Nc|Σj∈Nclog(1− qc)。(八)迭代我们运行的分类网络为30000 it-erations总数。我们使用没有全局平均池化层和分类损失的分类网络作为因此,我们的积分注意力模型的总混合损失函数可以通过以下公式计算: ΣL=(Lc+ Lc)。(九)c∈C以这种方式,软增强区域中的较低值也有助于根据等式(1)中的损失函数进行优化。(七)、当量(8)限制了注意区域向背景的过度扩张基于所提出的损失函数,我们可以训练整体注意力模型以进一步加强目标对象区域的较低注意力值在推理时,可以直接从整体注意力模型的类感知卷积层获得改进的注意力图。此外,图5显示了我们的注意力地图的一些视觉结果,并在第二节进行了更多的定量分析四点三。我们的整体注意力模型整体注意力模型的超参数与分类网络的超参数相同。我们使用DeepLab-LargeFOV模型[5]作为我们的分割网络。分割网络用小批量的10个图像并在15,000次迭代时终止所有其他超参数与[5]相同。我们报告了基于VGG 16 [32]和ResNet-101[10]主链的结果。4.2. 与最新技术在本小节中,我们将我们的方法与仅依赖于图像级标签的先前弱监督语义分割方法进行比较。选项卡. 1列出了这些方法的所有结果以及我们在验证和测试集上的结果。可以容易地观察到,我们的方法的mIoU分数改进了所有先前的最先进的方法,无论使用哪个主干。在以前的状态中-+L2075图像地面实况OAA OAA+图像地面实况OAA OAA+图4.PASCAL VOC 2012验证集上的定性分割结果分别使用OAA和OAA+生成的注意力图我们还在底行显示了几个失败案例。最先进的方法,MIL [26]和WebS-i2 [16]使用更多的训练图像(分别为700 K和19 K)。此外,Honget al. [11]利用由附加视频数据提供的时间动态的丰富信息,这有助于容易地从视频数据中找出完整的语义对象虽然只使用了10K图像,但我们的OAA+方法的结果在验证集上这一事实很好地表明,我们的整体注意力模型产生的注意力地图,可以有效地检测到更多的整体语义区域的所有部分的目标对象。与AE-PSL [35]相比, 我们的 OAA 实现了 更好的mIoU评分(61.6% vs. 55.0%),不需要训练多个分类模型。此外,GAIN [19]以端到端的方式采用自引导擦除策略,但我们的分割结果将GAIN提高了超过7%的mIOU分数(63.1% vs. 55.3%)。比较一下基 于 ResNet [10] 主 干 。 显 然 , 我 们 提 出 的 方 法 在PASCAL VOC 2012分割基准上取得了最好的结果4.3. 消融分析在本节中,我们进行了一系列消融实验,并进行了详细分析,以证明所提出的策略的有效性。此外,我们演示了如何产生的注意力地图可以有利于语义分割任务。请注意,我们在本小节中使用VGGNet版本的DeepLab-LargeFOV模型。积累战略。OAA中使用注意力融合策略来累积在不同时期的中间注意力图中发现的鉴别区域除了最大融合策略之外,我们还研究了平均融合策略,其可以被公式化为:这些基于擦除的方法揭示了收集中间注意图更有效。在[37]中,Weiet1 .一、Mt=t(t−1)Mt−1+AtΣ.(十)al.利用膨胀卷积的力量来发现整数对象。然而,它通常会引入一些不相关的像素,因为具有大膨胀率的卷积显然,我们的方法不使用具有大膨胀率的卷积如Tab.所示。1、我们的方法改进了[37] 在验证集和测试集上都增加了近2%。此外,我们还展示了分割结果如Tab.所示。2,使用CAM [43]的注意力而不使用OAA,在验证集上给出了53.9%的mIoU得分。在平均融合策略下加入OAA,融合结果可提高57.0%.当用最大融合策略替换平均融合策略时,我们的mIoU得分为58.6%,这大大改善了基于CAM的结果 [43]。此外,我们观察到OAA与最大融合策略是更有效的比平均融合策略。这是因为平均2076更完整和准确的对象区域。在选项卡中。2,我们使用不同的损失函数的定量结果。可以观察到,当用所提出的混合损耗(HL)替换标准多标签交叉熵损耗(MCE)[36]时,性能提高了8.4%。当应用多标签交叉熵损失时,输出的注意力图总是覆盖小的对象区域。相反,建议的混合损失可以进一步提高质量的累积注意力地图,我们的OAA。号AveMaxMCEHLmIoU(val)1百分之五十三点九2✓57.0%3✓58.6%4✓✓51.2%5✓✓59.6%表2.使用不同设置时PASCAL VOC 2012验证集上mIoU评分的比较AVE:具有平均融合策略的OAA。MAX:OAA最大融合策略。MCE:OAA+使用等式(1)中的多标记交叉熵损失 。 ( 六 ) 、 HL : OAA+ 使 用 等 式 中 提 出 的 混 合 损 耗(九)、表1.在验证集和测试集上与先前最先进的方法进行定量比较。OAA+表示注意力图是从第二节中描述的积分注意力模型生成的。三点三融合策略对中间注意力图中的所有注意力值进行平均,这降低了最终累积注意力图中的注意力值。因此,在下文中,我们将最大融合策略视为OAA的默认融合策略。请注意,本文的目标是证明OAA的有效性,因此我们简单地选择OAA的元素级最大融合策略。设计更复杂的融合策略超出了本文的范围,但我们鼓励读者进一步探索更有效的。OAA +中的损失函数。如第二节所述。3.3,然后使用累积注意力图作为软标签来训练整体注意力模型以产生具有不同策略的结果。除了视觉比较,我们还在PASCALVOC 2012数据集上进行了一系列消融实验。如Tab.所示。2,我们显示了使用不同策略的注意力地图训练分割网络的mIoU得分。在Tab的第三行和最后一行中。2.可以看出,使用OAA+可以进一步提高OAA的结果1.0%的验证集,这表明我们的积分注意力模型与建议的损失函数,可以帮助进一步提高累积注意力地图的质量。目视比较。在本段中,我们展示了PASCAL VOC 2012数据集[8]的一些定性结果,并分别给出了CAM [43],OAA和OAA+产生的相应注意力图,以进行视觉比较。如图5、图像包括不同种类的场景,例如具有不同尺度的对象、拥挤的对象和多个类别的图像。从所有示出的示例中,当与CAM [43]产生的注意力图相比时,我们的累积注意力图可以在不同尺度下发现几乎完整的目标对象在第五行上,示出了具有多个对象的图像可以发现,在这种情况下,我们的累积注意力地图仍然可以覆盖大部分的语义区域。在最后一行,我们展示了一些包含多个类的示例。显然,我们的累积注意力地图可以成功地区分不同的类别和检测密集的目标对象。此外,OAA+产生的注意图比OAA产生的累积注意图能发现更多的完整对象区域。此外,我们还在图中显示了一些分割结果。4.第一章方法监督Val测试主干:VGGNet[32][25]第二十五话10K35.3%-EM-Adapt [24]10K38.2%百分之三十九点六MIL [26]700K42.0%-DCSM [30]10K百分之四十四点一百分之四十五点一美国证券交易委员会[18]10K百分之五十点七百分之五十一点七AugFeed [27]10K百分之五十四点三百分之五十五点五STC [36]50K百分之四十九点八51.2%Roy等人[28日]10K52.8%53.7%Oh等人[23日]10K55.7%56.7%AE-PSL [35]10K55.0%55.7%Hong等人[第十一届]970K58.1%58.7%WebS-i2 [16]19K百分之五十三点四55.3%DCSP [3]10K58.6%百分之五十九点二TPL [17]10K百分之五十三点一53.8%2077猫猫猫电机电机电机总总总线线狗狗狗火火火车车车羊羊羊监测监测监测人人人狗狗狗人人人人人人狗狗狗图5.CAM [43],OAA,OAA+和OAA+-MCE产生的不同注意力地图之间的视觉比较OAA+和OAA+- MCE表示利用等式(1)中的所提出的混合损失学习的积分注意力模型。(9)和方程中的多标记交叉熵损失。(6)分别。号#训练图像比例mIoU(val)12,11620% 54.6%25,29150% 57.3%38,46680% 58.9%410,582100% 59.6%表3.当使用不同数量的训练图像时,PASCAL VOC 2012验证集请注意,图像是随机选择的。比例:用于训练的图像的百分比。#训练图像:训练图像的数量。训练图像的数量。为了进一步研究注意力地图的质量,我们尝试使用不同数量的训练图像来训练分割网络。我们使用OAA+产生的注意力地图来产生代理分割注释。如Tab.所示。3,随着更多的图像用于训练,mIoU分数逐渐提高。更有趣的是,当只使用2116张训练图像时,我们的分割网络仍然可以达到54.6%的性能得分,这比基于CAM的分割结果更好[43]。这间接地表明我们的注意力地图具有高质量,并且有助于分割任务。5. 结论在本文中,我们探索一个简单而有效的框架,称为OAA发现更多的整体对象区域。我们维护一系列累积注意力图,以在训练阶段保留由分类网络生成的注意力图中的不同区分区域。此外,我们利用累积的注意力地图作为软标签来训练一个整体的注意力模型,以提高注意力地图的OAA。我们的方法很容易遵循,可以简单地插入到任何分类网络中,以全面地发现目标对象区域。彻底的实验表明,当将我们的注意力地图应用于弱监督分割任务时,我们的分割网络比以前的最先进的分割网络效果更好。未来,我们计划在大规模数据集上进行实验,例如MS COCO [21]和ImageNet[7]。本 研 究 得 到 国 家 自 然 科 学 基 金 ( 61572264 ,61620106008)、国家青年人才支持计划、天津市自然科学基金(17JCJQJC43700,18ZXZNGX00110)的资助。云超伟是由IBM-Illinois Center for Cognitive Computing SystemsResearch(C3 SR)和ARC DECRA DE 190101315部分支持。2078引用[1] 安智云和郭淑华。学习像素级语义亲和力与图像级监督弱监督语义分割。在CVPR,2018年。二、七[2] Amy Bearman,Olga Russakovsky,Vittorio Ferrari和LiFei-Fei。重点是什么在ECCV,2016年。1[3] Arslan Chaudhry,Puneet K Dokania,and Philip HS Torr.用于弱监督语义分割的Dis-covering类特定像素arXiv预印本arXiv:1707.05821,2017。7[4] Liang-ChiehChen , GeorgePapandreou , IasonasKokkinos,Kevin Murphy,and Alan L Yuille.使用深度卷积网络和全连接crf的语义图像分割2015年,国际会议。1[5] Liang-ChiehChen , GeorgePapandreou , IasonasKokkinos,Kevin Murphy,and Alan L Yuille.Deeplab:使用深度卷积网络、atrous卷积和全连接crfs进行语义IEEE TPAMI,2017年。5[6] 作者:Niloy J. Mitra,Xiaolei Huang,PhilipH. S. Torr和Shi-Min Hu.基于全局对比度的显著区域检测。IEEE TPAMI,37(3):569-582,2015。2[7] 贾登。一个大规模层次图像数据库。CVPR,2009。8[8] Mark Everingham 、 SM Ali Eslami 、 Luc Van Gool 、Christo-pherKIWilliams 、 JohnWinn 和 AndrewZisserman 。 Pascal Visual Object Classes Challenge : ARetrospective.IJCV,2015年。二、五、七[9] BharathHariharan , PabloArbela'ez , LubomirBourdev ,Subhransu Maji,and Jitendra Malik.从反向检测器的语义轮廓见ICCV,2011年。5[10] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习在CVPR,2016年。五、六、七[11] Seunhoon Hong,Donghun Yeo,Suha Kwak,HonglakLee,and Bohyung Han.使用网络抓取视频的弱监督语义在CVPR,2017年。六、七[12] Qibin Hou , Ming-Ming Cheng , Xiaowei Hu , AliBorji,Zhuowen Tu,and Philip Torr.具有短连接的深度监督显著IEEE TPAMI,41(4):815- 828,2019。二、五[13] Qibin Hou,Puneet Kumar Dokania,Daniela Massiceti,Yun-chao Wei,Ming-Ming Cheng,and Philip Torr.弱监督语义分割的自下而上自上而下线索EMMCVPR,2017年。2[14] Hou Qibin,Jiang Peng-Tao,Wei Yunchao,and Ming-Ming Cheng. 自 我 擦 除 网 络 的 整 体 对 象 的 注 意 力 。NeurIPS,2018。二、七[15] 黄子龙、王兴刚、王佳思、刘文宇和王京东。基于深度种子区域生长的弱监督语义分割网络在CVPR,2018年。二、七[16] BinJin , MariaVOrtizSegovia , andSabineSusstrunk.Webly监督语义分割。在CVPR,2017年。六、七[17] Dahun Kim,Donggeun Yoo,In So Kweon,等.弱监督目标定位的两阶段学习。InICCV,2017. 7[18] Alexander Kolesnikov和Christoph H Lampert。种子、展开和约束:弱监督图像分割的三个原则。在ECCV。施普林格,2016年。二、三、七[19] Kunpeng Li,Ziyan Wu,Kuan-Chuan Peng,Jan Ernst,and Yun Fu.告诉我去哪里看:引导注意推理网络。在CVPR,2018年。二三六七[20] Guosheng Lin , Anton Milan , Chunhua Shen , and IanReid. Refinenet:具有身份映射的多路径细化网络在CVPR,2017年。1[21] 林宗义、迈克尔·梅尔、塞尔日·贝隆吉、詹姆斯·海斯、皮埃特罗·佩罗纳、德瓦·拉马南、皮奥特·多尔·拉尔和C·L·劳伦斯·齐特尼克。微软coco:上下文中的公用对象。2014年,在ECCV。8[22] 乔纳森·朗埃文·谢尔哈默和特雷弗·达雷尔用于语义分段的全卷积网络CVPR,2015。1[23] Seong Joon Oh , Rodrigo Benenson , Anna Khoreva ,Zeynep Akata,Mario Fritz,and Bernt Schiele.利用显著性从图像级标签进行对象分割。在CVPR,2017年。7[24] George Papandreou,Liang-Chieh Chen,Kevin Murphy和Alan L Yuille。的弱监督和半监督学习用于语义图像分割的DCNN。arXiv预印本arXiv:1502.02734,2015。7[25] Deepak Pathak Philipp Krahenbuhl和Trevor Darrell用于弱监督分割的约束卷积神经网络在ICCV,2015年。7[26] Pedro O Pinheiro和Ronan Collobert使用卷积网络从图像级CVPR,2015。一、六、七[27] Xiaojuan Qi,Zhengzhe Liu,Jianping Shi,HengshuangZhao,and Jiaya Jia.图像级监督下语义分割中的增强反馈在ECCV,2016年。1、7[28] Anirban Roy和Sinisa Todorovic结合自下而上、自上而下和平滑度线索进行弱监督图像分割。在CVPR,2017年。7[29] Ramprasaath R Selvaraju,Michael Cogswell,AbhishekDas,Ramakrishna Vedantam,Devi Parikh,and DhruvBatra.Grad- cam:通过基于梯度的定位从深度网络获得视觉解释。InICCV,2017. 一、二[30] 下田涉和柳井敬二。用于弱监督语义分割的不同类别特定显着图在ECCV,2016年。7[31] Karen Simonyan Andrea Vedaldi和Andrew Zisserman卷积网络内部:可视化图像分类模型和显着图。arXiv预印本arXiv:1312.6034,2013。2[32] Karen Simonyan和Andrew Zisserman用于大规模图像识别的非常深2015年,国际会议。三、五、七[33] Jingdong Wang,Huaizu Jiang,Zejian Yuan,Ming-MingCheng,Xiaowei Hu,and Nanning Zheng.显著对象检测:一种判别式区域特征集成方法。IJCV,123(2):251-268,2017。2[34] Xiang Wang,Shaodi You,Xi Li,and Huimin Ma.迭代挖掘共同对象特征的弱监督语义分割在CVPR,2018年。二、七2079[35] Wei Yunchao,Jiashi Feng,Xiaodan Liang,Ming-MingCheng,Yao Zhao,and Shuicheng Yan.使用对抗性擦除的对象区域挖掘:一个简单的分类到语义分割的方法。在CVPR,2017年。一、三、六、七[36] Yunchao Wei,Xiaodan Liang,Yunpeng Chen,XiaohuiShen , Ming-Ming Cheng , Yao Zhao , and ShuichengYan.Stc:一个从简单到复杂的框架,用于弱监督语义分割。IEEE TPAMI,39(11):2314四、五、七[37] Yunchao Wei,Huaxin Xiao,Honghui Shi,Zequn Jie,Jiashi Feng,and Thomas S Huang.复查扩张的卷积:弱监督和半监督语义分割的简单方法。在CVPR,2018年。二三六七[38] Hang Zhang , Kristin Dana , Jianping Shi , ZhongyueZhang , Xiaogang Wang , Ambrish Tyagi , and AmitAgrawal.用于语义分割的上下文编码。在CVPR,2018年。1[39] Jianming Zhang , Zhe Lin , Jonathan Brandt , XiaohuiShen,and Stan Sclaroff.自上而下的神经注意力通过兴奋支撑。在ECCV,2016年。2[40] Xiaolin Zhang,Yunchao Wei,Jiashi Feng,Yi Yang,and Thomas Huang.弱监督目标定位的对抗互补学习。在CVPR,2018年。一、二、三[41] Xiaolin Zhang , Yunchao Wei , Guoliang Kang , YiYang,and Thomas Huang.用于弱监督对象定位的自产指导。在ECCV,2018。2[42] Hengshuang Zhao,Jianping Shi,Xiaojuan Qi,XiaogangWang,and Jiaya Jia.金字塔场景解析网络。在CVPR,2017年。1[43] Bolei Zhou , Aditya Khosla , Agata Lapedriza , AudeOliva,and Antonio Torralba.用于区分定位的深度特征学习。在CVPR,2016年。一二三四六七八
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)