没有合适的资源?快使用搜索试试~ 我知道了~
43214142什么是和什么不是一个显着的对象?利用线性样本回归夏昌群1、李佳1、2、陈小武1、郑安林1、张玉11北京航空航天大学计算机科学与工程学院虚拟现实技术与系统国家重点实验室2北京航空航天大学摘要发现什么是显著对象,什么不是显著对象,可以帮助在显著对象检测(SOD)中开发更好的特征和模型。本文研究了在构建新的SOD数据集过程中被选择和丢弃的图像,发现相似候选对象多、形状复杂和对象性低是许多非显著对象的三个主要属性。此外,对象可能具有使它们突出的多样化属性。因此,我们提出一种新的显著目标检测器,通过集成线性样本回归。我们首先利用边界先验选择可靠的前景和背景种子,然后采用局部线性嵌入(LLE)进行流形保持的前景传播。以这种方式,可以生成前景图以粗略地突出显著对象并抑制具有许多相似候选的非显著对象。此外,我们提取的形状,突出性和注意力描述符来描述的ex-cific对象的建议,和一个线性样本回归器的训练编码如何检测显着的建议,在一个特定的图像。最后,将各种线性样本回归器组合起来,形成适应各种场景的单个检测器。在5个数据集和新的SOD数据集上的大量实验结果表明,我们的方法优于9种最先进的方法。1. 介绍显著目标检测(SOD)是一个基本问题,吸引了越来越多的研究兴趣[16,35,36]。在SOD中,一个关键步骤是利用视觉属性区分显著和非显著然而,在复杂的场景中,通常不清楚哪些属性固有地使对象弹出,以及如何区分共享某些属性的显着和非显着对象(见图2)。①的人。因此,在开发SOD模型之前,有必要调查什么是显着对象,什么不是显着对象。* 通讯作者:陈晓武(邮箱:chen@buaa.edu.cn)。图1. 显著对象可以弹出以具有不同的视觉属性,其可以部分地与非显著对象共享。(a)图像,(b)地面实况,(c)结果[16],(d)结果[36],(e)我们的方法的结果。三幅图像中显著对象的主要属性是位置(第1行)、形状(第2行)和颜色(第3行),而与非显著对象共享的属性是形状(第1行)、颜色(第2行)和位置(第3行)。在过去的十年里,人们做出了广泛的努力,以找到一个全面和令人信服的定义显着对象。例如,Jiangetal. [17]提出显着对象的特征是唯一性、焦点性和对象性。在[10]中,显着对象被认为是唯一的,并且具有紧凑的空间分布,或者相对于其局部和全局环境是可区分的[13]。基于这些发现,可以设计启发式特征来识别区域[8,24,16,44],超像素[19,14]或像素[37,34,42]是否突出。通常情况下,这些模型可以实现令人印象深刻的perfor-曼斯时,显着和非显着的对象是显着不同的。然而,在复杂的场景中,显着和非显着对象可能共享一些视觉属性,使它们难以分离(见图2)。①的人。尽管可以通过使用深度卷积神经网络[15,12,21,22,25]或递归神经网络[26,20,38]训练非常复杂的模型来部分解决此类场景,但此类深度模型通常难以训练或微调。此外,尚不清楚哪些视觉属性在区分显著和非显著方面贡献最大。由于“黑匣子”的特点,43214143图2. 所提出方法的系统框架。深度模型因此,发现什么不是显著对象与知道什么是显著对象一样重要,并且答案可以有助于设计更好的特征和开发更好的SOD模型。为此,本文首先构建了一个新的SOD数据集,并对构建过程中包含或丢弃的图像进行了全面的调查,从而找到一个更精确的定义,什么是显着对象,什么不是显着对象。从被认为是模糊和混淆的确定显着对象的丢弃图像中,我们发现,相似的候选人,复杂的形状和低对象是三个主要原因,阻止对象被认为是明确显着的。此外,从数据集中包括的10,000幅我们发现物体可以通过多种方式这可能意味着SOD模型应该自适应地处理各种场景,以完美地检测显著对象并抑制干扰物。受这两个关于什么是显著和非显著对象的发现的启发,我们提出了一种简单而有效的基于图像的SOD方法,该方法通过集成大量的线性样本回归。所提出的方法的系统框架可以在图中找到。二、给定一个测试图像,我们首先将其划分为超像素,并提取一组前景和背景种子,这些种子相对于先前工作中使用的边界先验[6,16,23,39,41]。此外,采用局部线性嵌入(LLE)算法来发现每个超像素与其特征子空间中的最近邻居之间的关系,并且这些关系与所选择的种子一起用于指导流形保持前景传播过程,从而导出能够粗略地突出的对象,并抑制具有许多相似候选者的此外,我们通过使用预先训练的深度固定预测模型[29]生成注意力地图,并通过使用多尺度组合预测算法[4]从输入图像中提取一组具有高对象性的对象propos-als。 利用前景图和注意图,对测试图像进行形状、注意和前景描述,并将这些描述输入到由线性样本回归器组合而成的显著目标检测器中,从而检测出显著目标,抑制非显著目标.请注意,每个线性样本回归器都是通过使用相同的建议描述符在特定的训练图像上训练的,而每个回归器都编码了一种将显着对象与非显着对象分开的特定方式结果表明,它们的融合能够自适应地处理各种场景下的SOD任务,形状描述器和高目标性建议的使用保证了对非显著目标的良好抑制。大量的实验结果表明,所提出的方法优于9个国家的最先进的方法在5个数据集和我们的新数据集。本文的主要贡献概括如下:1)我们介绍了一个包含10,000张图像的大型SOD数据集,我们承诺发布该数据集,以便为训练和测试SOD模型提供广告来源;2)在构造数据集时,对显著对象和非显著对象进行了研究,并在此基础上提出了一种基于线性样本回归的有效显著对象检测器; 3)提出了利用边界先验和LLE来计算前景图的方法,这是突出显著对象和抑制非显著对象的有效线索。43214144图3. XPIE中的图像和注释。(a)场景复杂度:简单(顶部)到复杂(底部),(b)显著对象的数量:单个(顶部)到多个(底部),(c)对象大小:小(顶部)到大(底部),(d)对象位置:中心(顶部)到边框(底部)。2. 什么是和什么不是一个突出的对象为了全面解释什么是显著目标,什么不是显著目标,一个可行的解决方案是通过观察图像中目标的主要特征来表1. 拟议XPIE数据集的统计数据Set-P第一组Set-EXPIE候选人人数8,80019,6001,20029,600#是的2,43317,87569421,002#不6,3671,7255068,598#注释625 8,799 576 10,000包括在数据集中或从数据集中丢弃。从这些Ob-服务,我们可以推断出显着的关键属性,非显著对象以及可能固有地存在于基于图像的SOD数据集中的主观偏见。为此,我们构建了一个大型SOD数据集(简称为XPIE),并记录了构建过程中的所有细节我们首先从三 个 来 源 收 集 三 种 图 像 , 包 括 Panoramio [30] ,ImageNet [11]和两个固定数据集[7,18]。收集是完全自动的,以避免带来太多的主观偏见。之后,我们调整每个图像的大小,使其最大边长为300像素,并丢弃所有灰色图像以及最小边长小于128像素的彩色图像。最后,我们获得了29600幅彩色图像,分别表示为Set-P,Set-I和Set-E。集合P包含8,800幅具有地理信息的感兴趣的地方的图像(例如,第一组包含19600张带有物体标记的图像,第二组包含1200张带有人类注视的图像。给定这些图像,我们要求两名工程师通过两个阶段对其进行注释。在第一阶段,图像被分配一个二进制标签:“是”表示包含明确的显著对象,否则为“否”。在第一阶段之后,我们有21002张标记为“是”的图像和8598张标记为“否”的在第二阶段,这两个工程师被进一步要求在10000张标记为“是”的图像中手动标记显著物体请注意,我们有10名志愿者参与了整个过程,以交叉检查注释的质量。最后,我们得到了10000幅图像的二值掩模。更多统计数据见表1。 如图3、XPIE中的图像覆盖了各种简单和复杂的场景,具有不同数量、大小和位置的显著对象。因此,XPIE可以用作开发和基准SOD模型的额外培训/测试源。通过观察10,000张标记为“是”的图像1) 很多类似的候选人。 某些图像包含许多候选对象( 即 , 在 这 项 研 究 中 , 五 个 或 更 多 , 见 图 。 4(a)),很难确定哪些是最突出的。换句话说,当不同的主体手动标注这些图像中的显著性对象时,可能不可避免地出现若干标签虽然这种模糊性可以通过结合眼睛跟踪设备来缓解[24],但这个问题仍然远远没有得到解决。2) 复杂的形状。一个物体的形状越复杂,它被认为是显著的可能性就越小。请注意,一个对象可能具有复杂的形状,因为它具有模糊或复杂的边界,或者被其他物体遮挡(见图2)。第四条(b)款)。 我们也发现这些现象存在于其他数据集中,如DUT-OMRON [41]和PASCAL-S [24]。3) 低客观性。有时图中的岩石和道路4(c))。这可能是由于这些语义类别内的对象经常充当其他图像中的背景的事实。从这三个原因,我们还可以得出一个可以与以前的定义相结合的显着对象的定义[5]。 也就是说,显著对象应该具有有限的相似干扰物、相对清晰和简单的形状以及高对象性。此外,我们发现,显着对象可以弹出,在不同的场景,具有特定的视觉属性,这意味着一个好的SOD模型应该编码的所有可能的方式,显着对象不同于非显着的,并自适应地处理所有类型的场景。43214145我2我我2图4.一个物体被认为是不显著的三个原因(a)许多类似的候选物,(b)复杂的形状,(c)低客观性。3. 基于多重保持传播算法的如第2、在同一图像中具有许多相似候选的对象换句话说,对象之间的对象间相似性是区分显著对象和非显著对象的有用线索受这一事实的启发,我们建议估计前景图来描绘显著对象可能驻留通过使用这样的对象间相似性。为此,我们首先使用SLIC方法[2]将图像划分为一组几乎规则的超像素,并且超像素的数量,考虑到(1)只包含线性约束的二次项和线性项,我们可以用梯度下降算法有效地求解这样的二次规划问题。请注意,只有颜色差异在(2)中考虑,因为我们的目标是抑制与边界区域具有相似颜色的所有可能的背景区域。在实践中,我们用左、上、右和下边界初始化y四次,尊重iv el y。让我,让我,如果r和b是e接地性指示符的细化,则我们可以导出最终指示符向量中的第i个分量为y(三)我我记为N,根据经验设置为200。 对于超像素S1,我们用它的CIE LAB颜色向量ci和平均值来在此基础上,我们采用了两个预定义的阈值,T高位置向量pi和T低,以获得最可靠的前景/背景种子也就是说,对于e,选择磨碎的种子,前景和背景种子选择。考虑到特征{c,p},我们旨在生成一组高度可靠的和背景种子,其中y是0的I中选择阳性。7、否定G(O)<0。3,表示为O+和O−,re-我我图5.通过流形保持前景传播的前景图估计(a)输入图像,(b)用于前景/背景种子选择的初始化前景图,(c)最终前景图。其中,N K是Si的K个最近邻的索引,并且我们在实验中设置K=5。在实践中,我们可以使用[32]中描述的方法优化(4)。结果,我们可以获得N×N关系矩阵W=[wij],其捕获了图1中的所有超像素的流形结构。特征空间基于这个矩阵,前景可以分别为。 之后,我们表示每个对象提案O在O+和O-中,使用启发式特征向量vO,包括[4]中提出的14 d形状描述符和附加的11 d形状描述符,如重心、宽高比、方向、偏心率等。27D前景描述符和27D注意描述符(如[24])。最后,每个对象建议O由79d描述符表示vO.利用这些特征向量,φ(v)可以通过最小化来传播为最小值Wy−Wy2+λ Σ (y-g)2minφ1中文2+C+2ΣO+C−Σ吉欧,2lleiiyO∈O+O∈O−S.T. 0≤y≤1,i∈S(五)S.T. O ∈O+,wT vO +b≥1−O,≥0,(七)其中S是所选择的前景和背景种子的索引gi是指示符,如果Si是所选择的前景种子和背景种子,则该指示符等于1或0。分别为。yi是前景向量y的第i个分量。在(4)中,第一项强制流形保持前景传播,第二项确保最终前景与种子选择结果一致。λlle控制第一项和第二项的平衡。这两项都是平方误差。因此,我们可以通过最小二乘算法获得前景向量最后,通过将基于超像素的前景度分配给其包含的所有像素,将前景度向量转换为前景度图。4. 利用线性样本回归4.1. 训练线性样本回归<$O∈O−,wT vO+b≤<$O−1,<$O≥0,其中C+和C−根据经验设置为1/|O+|和1/|O−|来平衡可能的显著物体和干扰物的影响。w和b是φ(v)的参数。4.2. 显著目标检测的集成方法给定所有线性样本回归, 提案O在测试图像中,|我|显著性分数,表示为{φI(vO)|I∈I}。然而,每个线性E-emplar回归因子的得分可能落在不同的动态范围内,他们的直接融合将导致不准确的显着地图(见图)。6(c)-(d))。为了融合这些预测,我们提出了对{φI(O)}的增强操作,该操作增加了采用最相关的线性样本回归的概率,并降低了增强采用S形函数,给定前景图,我们可以通过集成线性样本回归来训练显著设I是训练图像的集合,G是图像I∈I的地面真实掩模。受[24]中显著对象的注释过程的启发,我们使用多尺度组合算法从I1f(x)=1 +e-a(x-b)(8)其中x∈{φI(O)}。A、B是控制增强程度的预定义参数,使得输出中间分数的回归器将被抑制(例如,x=0。5),而具有高和低分数的回归量将被保持(例如,43214147O图6.SOD的不同融合策略(a)图像,(b)地面实况,(c)通过计算最大显著值的直接融合(d)通过计算平均显著性值来直接融合,(e)通过在使用S形函数的增强操作之后计算平均显著性值来增强融合。x=0。0或x=1。0)。通过这种方式,我们可以校准所有回归变量,并更多地强调那些输出关于对象提案的可信预测的回归变量以这种方式,4) MSRA-B[27]包含5000个图像,我们选择了2500个图像用于训练,500个图像用于训练线性样本回归器的验证。 这也是[16]中使用的相同设置。只有剩下的2000幅图像用于测试所有模型。5) THUR15K[9]包含了6233张关于蝴蝶、咖啡杯、狗跳、长颈鹿和飞机的图片。6) XPIE包含了10000张图像,这些图像都带有显著物体的像素级掩模。它涵盖了许多复杂的场景与不同的数量,大小和位置的显着对象。在比较中,我们采用F-测度曲线、自适应F-测度、加权F-测度和平均绝对误差(MAE)作为评价指标。在计算F-测量曲线时,首先通过用从0到255的阈值滑动二值化显著性图来计算查准率和查全率,在每个阈值处,F-测量计算为(1+β2)·精度n·召回率具有分离显著性和非显著性能力的回归变量F-measure=β2·精确度+召回率、(10)在这个场景中,突出的物体可以被强调,集成模型场景自适应。最后,我们对增强的显著性分数求和,以导出像素p处的显著性:其中β被设置为0.3,如[1]中所示。此外,我们报告自适应使用自适应阈值的F-measure(FM)用于生成二进制显著图。计算自适应阈值1Sal(p)=| |ΣO∈On(p∈O)·ΣI∈If(φI(vO)),(9)是显著图平均值的两倍同时,计算统一加权F-度量(wFM,见[28])以反映整体性能。此外,MAE被计算为灰度和灰度之间的平均绝对每像素差。其中,f(p∈ O)是指示函数,如果p∈ O,则f等于1,否则f等于0。在此之后,我们将像素级显著性归一化到[0,1]的动态范围内,并采用[42]中提出的指数运算来增强一致性。trast的显着地图,其次是形态操作,以获得一个光滑的显着对象(见图。(六)。5. 实验在实验中,我们比较了我们的方法,表示为ELE(即,Ensembling Linear Exemplars),具有9种最先进的方法,包括MST[36], BL[35], BSCA[31],[23][24][25][26][27][28][29]GS [39]。此外,我们通过从所有训练图像中收集的大量否定样本来替换用于训练每个线性样本回归器的否定实例,扩展ELE,并且扩展模型表示为ELE+。对于这11个模型,我们在5个公共数据集和我们的新数据集XPIE上进行了比较,包括:1) SED1[3]包含100张图像,每张图像都有一个占主导地位的显著对象。2) PASCAL-S[24]包含850幅自然图像,其中标注了预先分割的对象和眼睛跟踪数据。3) ECSSD[40]包含由5名受试者手动注释的1000张结构复杂的43214148比例显着图和地面实况显着图。5.1. 与现有技术方法的我们的方法和其他9种方法的性能得分如表2所示。F-测度曲线如图所示。8,我们还显示了一些代表性的结果图。7.第一次会议。从这些结果中,我们发现ELE和ELE+在所有数据集上都优于其他9种方法,并实现了最低的MAE和最高的wFM。我们的方法的成功可以从三个方面来解释首先,关于什么是显著对象和什么不是显著对象的调查为设计区分显著对象和非显著对象的有效特征提供了有用的线索。特别地,经由流形保留传播计算的前景图可以抑制具有许多相似候选的非显著对象。其次,我们发现非显着的对象具有低的对象性,我们提取的对象建议包含高的对象性,更紧密地与对象的语义属性。事实上,基于提议的框架类似于人类感知显著物体的方式第三,用基于样例的线性回归模型同构地描述了基于增强的样本分数融合策略使得学习后的显著检测器更加强调最相关的线性样本43214149表2.比较自适应F-测度(FM,越大越好)、加权F-测度(wFM,越大越好)和MAE(越小越好)的定量结果最好的三个结果分别以红色、蓝色和绿色数据集度量GSDSR先生DRFIRBDMBSBSCABLMSTELEELE+Mae0.1760.1600.1530.1640.1430.1720.1540.1850.1340.1050.108SED1FM0.7510.8030.8200.8170.8030.8050.8190.8080.8040.8490.854WFM0.5710.6160.6260.5980.6520.5790.6110.5550.6970.7730.767Mae0.2210.2050.2210.2190.1990.2200.2220.2470.1840.1610.159Pascal-SFM0.6010.6280.6490.6660.6390.6420.6400.6320.6600.6920.710WFM0.4140.4200.4160.4180.4490.3660.4320.4000.5270.5760.581Mae0.2550.2260.2370.2390.2250.2450.2330.2620.2080.1830.183ECSSDFM0.6240.6870.6970.7170.6790.6680.6970.6910.6880.7400.749WFM0.4350.4900.4780.4720.4900.4320.4950.4490.5780.6490.650Mae0.1440.1190.1270.1390.1100.1400.1300.1710.0940.0690.071MSRA-BFM0.7540.7950.8260.8280.8110.8010.8090.8070.8120.8530.861WFM0.5630.6290.6130.5700.6500.5480.6010.5200.7250.7970.795Mae0.1760.1420.1780.1670.1500.1590.1820.2200.1410.1210.111星期四15KFM0.5180.5790.5860.6150.5660.5950.5740.5750.6070.6300.654WFM0.3700.4220.3780.3990.4210.3660.3870.3410.4990.5490.567Mae0.1810.1550.1770.1600.1490.1620.1810.2130.1460.1280.121XPIEFM0.6120.6550.6720.6980.6650.6700.6580.6530.6750.7010.722WFM0.4350.4760.4510.4780.5030.5150.4550.4070.5600.6030.611图7.我们的方法(ELE和ELE+)和9种最先进方法的代表性结果回归变量,而做出模糊预测的回归变量将以某种方式被忽略。以这种方式,显著性图变得不那么嘈杂。5.2. 性能分析我们进行了四个小实验的1000测试图像的ECSSD进一步验证所提出的方法的有效性在第一个实验中,我们检查生成的前景图的有效性在这个实验中,我们将前景图与类似模型的结果进行了比较,如MST [36],RBD [43]和MR [41]。我们发现,这些前景图的加权F-测度最高为0.602,而MST、RBD和MR的加权F-测度分数这个值-43214150图8. 我们的方法(ELE和ELE+)和9种最先进的方法在6个数据集上的F测量曲线(越大越好)。结果表明,所提出的前景图是非常有效的,并为ELE和ELE+的令人印象深刻的性能做出了很大贡献。在第二个实验中,我们比较了启发式特征和深度模型提取的深度特征。在这个实验中,我们使用[33]中的GoogleNet为每个建议计算1024个特征描述符。我们发现,在相同的训练过程中,ELE的加权F-测度从0.649急剧下降到0.578。 这可能是由使用高维CNN特征 时 的 过 度 拟 合 风 险 ( 例 如 , 1024d 、 2048d 或4096d),尤其是当训练数据量非常小时。在实验三中,我们测试了样例分数的各种融合策略。我们比较了3种不同的融合方式,如图所示6(b)、(c)和(d)。我们发现,使用原始样本分数的最大值和平均值作为建议的最终显着性值的加权F-度量为0.540和0.588,而使用基于增强的这表明对原始样本分数的增强操作在选择最相关的样本线性回归量和抑制倾向于向所有候选者输出中等响应的不相关回归量方面在四个实验中,我们比较了ELE和ELE+。表2中的定量结果表明,使用巨大的负袋对每个线性样本回归量的性能具有积极的影响。事实上,显著性是一个相对的概念,我们可以简单地推断如何从特定的非显著对象中分离出特定的显著对象。相反,这个否定词的扩展通过这种方式,可以提高检测器的泛化能力,从而获得更好的性能。6. 结论了解什么是显著对象,什么不是显著对象对于设计更好的特征和开发基于图像的SOD的更好的模型是重要的。为此,本文首先构建了一个新的SOD数据集,并探讨了在选定的图像中的显着性对象的行为通过对显着和非显着物体的视觉属性的研究,我们发现非显着物体往往具有许多相似的候选对象,形状复杂,对象性较低,而显着物体由于具有多样化的属性而能够突出受一个新数据集的预处理过程中的两个发现的启发,我们通过流形保持前景传播计算了一个新的前景图,它可以用来提取有效的特征来区分显着和非显着对象。此外,我们通过集成大量的线性样本回归器来训练有效的显著对象检测器。实验结果表明,所提出的检测器优于9个国家的最先进的方法。在未来的工作中,我们将从两个方面扩展所提出考虑到基于集成的框架的高度灵活的架构,我们将尝试设计一个方案,检测器可以通过从增量训练数据中学习来逐渐进化。此外,更多的特征将被纳入框架,特别是高级特征,如通过预训练模型提取的语义描述符谢谢。这项工作得到了部分支持-国家自然科学基金委员会(61532003 61672072 61325011 61421003)和中央大学基础研究基金。43214151引用[1] R. Achanta,S. Hemami,F. Estrada和S.暂停频率调谐显著区域检测。CVPR,2009。[2] R. Achanta、A.Shaji,K.史密斯,A.Lucchi,P.Fua,和S. 很 好 切 片 超 像 素 与 最 先 进 的 超 像 素 方法 的 比 较TPAMI,34(11):2274[3] S.阿尔珀特M. Galun,A. Brandt和R.巴斯里图像分割的概率自底向上聚合和线索整合。TPAMI,2012年。[4] P. Arbel a'ez,J. Pont-T uset,J. Barron,F. Marques和J.马力。多尺度组合分组CVPR,2014。[5] A.波吉什么是显着对象?用于显著对象检测的数据集和基线模型。TIP,2015年。[6] A. Borji,D.N. Sihite和L.伊蒂显著对象检测:一个基准。ECCV,2012年。[7] N. D. Bruce和J. K.佐斯基于信息最大化的显著性。NIPS,第155-162页,加拿大不列颠哥伦比亚省温哥华,2005年[8] K.- Y.张T L.刘洪T. Chen和S.- H. Lai.融合类属对象性和视觉显著性进行显著对象检测。见ICCV,2011年。[9] M.- M. Cheng,N. J. Mitra,X. Huang和S.- M.胡凸形:图像集合中的组显著性。视觉电脑,2014年。[10] M.- M. 郑,J.Warrell,W.Y. Lin,S.Zheng,V.Vineet,以及N.骗子基于软图像抽象的高效显著区域检测。CVPR,2013。[11] J. Deng,W.东河,巴西-地索赫尔湖J. Li,K. Li和L.飞飞 。 Imagenet : 一 个 大 规 模 的 分 层 图 像 数 据 库 。CVPR,2009。[12] L. Gaystan,T.Yu-Wing和K.俊模具有编码的低级距离图和高级特征的深度显著性在CVPR,2016年。[13] S.戈弗曼湖Zelnik-Manor和A.塔尔上下文感知显著性检测。TPAMI,2012年。[14] C.龚氏D.陶,W. Liu,S. J. Maybank,M. Fang,K.在中国的分布Fu和J. Yang。显着性传播由简单到困难。CVPR,2015。[15] S.赫利河刘,W。Liu,Z. Huang和Q.杨 Supercn- n:用于显著对象检测的超像素卷积神经网络。IJCV,2015年。[16] H. Jiang,J. Wang,Z. Yuan,Y. Wu,N. Zheng,和S.李显著对象检测:判别式区域特征集成方法。CVPR,2013。[17] P. Jiang,H.Ling,J.Yu和J.朋UFO显著区域检测:统一性、集中性和客观性。CVPR,2013。[18] T. Judd,K.Ehinger,F.Durand和A.托拉尔巴学习预测人类的视线。ICCV,2009年。[19] J. Kim,D.汉,Y.-W. Tai和J.Kim. 通过高维颜色变换的显著区域检测CVPR,2014。[20] J. Kuen,Z. Wang和G.王.用于显著性检测的递归注意网络。在CVPR,2016年。[21] G. Li和Y. Yu.基于多尺度深度特征的视觉显著性。CVPR,2015。43214152[22] G. Li和Y. Yu.用于显著对象检测的深度对比度学习。在CVPR,2016年。[23] X. Li,H.卢湖,加-地Zhang,X.阮和M.- H.杨通过密集和稀疏重建进行Salien-cy检测。InICCV,2013.[24] Y. Li,X.侯角,澳-地Koch,J. Baug,and A.尤尔。显着对象分割的秘密。CVPR,2014。[25] X. R. Lijun Wang,Huchuan Lu and M.- H.杨通过局部估计和全局搜索进行显著性检测的深度网络。CVPR,2015。[26] N. Liu和J.Han. DHSNet:用于显著对象检测的深度层次显著性网络。在CVPR,2016年。[27] T. Liu,Z.袁杰孙杰Wang,N. Zheng,X. Tang和H.- Y.沈学习检测显著物体。TPAMI,2011年。[28] R.马戈林湖Zelnik-Manor和A.塔尔如何评价前景图?在CVPR,第248-255页[29] J. Pan,E.Sayrol,X.Giro-i Nieto,K.McGuinness和N.E.奥康纳用于显著性预测的浅层和深层卷积网络。在CVPR,2016年6月。[30] 全景。 http://www.panoramio.com。[31] Y. Qin,H. Lu,Y. Xu和H.王.基于元胞自动机的显著性检测。CVPR,2015。[32] S. T. Roweis和L. K.索尔局部线性嵌入的非线性降维。科学,2000年。[33] C. 塞格迪 W. 刘先生, Y. 贾, P. Sermanet S.里德D.安格洛夫,D。Erhan,V. Vanhoucke,和A.拉比诺维奇。更深的回旋。2015年。[34] Y. Tian,J.Li,S.Yu和T.煌学习互补显著性先验用于复杂场景中的前景对象分割。IJCV,2015年。[35] N.唐,H. Lu、X.阮和M.- H.杨通过自举学习的显著对象检测。CVPR,2015。[36] W.- C. Tu,S.他,Q。Yang和S.-Y. 简基于最小生成树的实时显著2016年。[37] R. 瓦伦蒂N.Sebe和T.Gevers 通过等中心曲线和颜色的图像显著性ICCV,2009年。[38] L.王湖,加-地Wang,H. Lu,P. Zhang,and X.阮。使用循环全卷积网络进行Salien-cy检测。在ECCV,2016年。[39] Y. Wei,F.温,W.Zhu和J.太阳使用背景先验的测地线显著性在ECCV。2012年。[40] Q. 延湖,澳-地徐,J.Shi和J.贾层次显着性检测。CVPR,2013。[41] C. 扬湖,澳-地Zhang,H.Lu、X.阮和M.-H. 杨通过基于图的流形排序的Salien-cy检测。CVPR,2013。[42] J. Zhang,S.Scaroff,Z.Lin,X.申湾Price和R.Mech.最小障碍显著物体检测,每秒80帧。在ICCV,2015年。[43] W. Zhu,S.Liang,Y.Wei和J.太阳来自鲁棒背景检测的显著性优化CVPR,2014。[44] W. Zou和N.小木Harf:Hierarchy-associated rich featuresfor salient object detection.在ICCV,2015年。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功