没有合适的资源?快使用搜索试试~ 我知道了~
12946利用学习区域表示或者Isaacs、Oran Shayer、Michael Lindenbaum计算机科学,以色列理工学院orisaacs@gmail.comoran.sh @ gmail.comexample.commiwwwc@cs.technion.ac.il摘要当前用于通用(非语义)分割的成功方法主要依赖于边缘检测,并且主要通过改进算法流水线中的边缘检测阶段来利用深度学习的优势这与语义和实例分割形成对比,其中DNN被直接应用于生成逐像素分割表示。我们提出了一种新的方法,学习-ING的像素表示,反映段relat- edness。这种表示与边缘图相结合,产生一个新的分割算法。我们表明,表示本身实现国家的最先进的段相似性分数。此外,所提出的组合分割算法提供的结果,无论是最先进的或改进后,对于大多数质量措施。1. 介绍通用分割是将图像分割成与没有先验信息的对象相对应的部分的充分研究的任务。到目前为止,深度学习对这项任务的应用是间接的,依赖于边缘检测。例如,COB算法[21]使用学习的边缘检测器来建议高质量的轮廓图,然后使用定向分水岭变换[2]从其创建分割层次结构在这项工作中,我们遵循用于语义分割的方法:学习捕获区域和分段特征的逐像素表示。然而,我们首次将这种方法应用于通用(非语义)分割任务。本文的重点是创建这样的代表,以及结合它们与基于边缘的信息,以提高目前的最先进的通用分割算法。深度学习已成功用于监督机制,其中网络在监督任务上进行端到端学习(例如,分类[14]、对象检测[29]、语义分割[6]或边缘检测[36])。通用*两位作者的贡献相等图1:算法流程:提取所提出的区域表示(右上)和输入图像(左上)的边缘(左下),然后将其组合成结果分割(右下)。然而,分割不能这样表述。与语义分割不同,新(“测试”)图像的片段内的区域的属性面对验证的共同任务([34],[31],[26])共享这个困难。即使我们对成千上万的已标记的面孔进行学习,也可能有数百万的未被识别的面孔必须处理。为了成功,我们可以学习一个模型或表示,它可以捕捉能够区分不同面孔的属性,即使是那些在训练中没有遇到的面孔。类似地,在通用分割中,待分割的图像可能包含在训练集中看不到的对象该问题由于注释段具有未知的语义含义(即,我们不知道标记的是什么物体或部件)。因此,我们学习了表达片段相关性的逐像素表示。也就是说,对于相同片段的像素,表示在表示空间中被分组在一起,并且对于来自不同片段的像素,表示保持进一步分开。我们使用一种监督算法,该算法遵循DeepFace算法的原理[34],但解决了任务之间的差异我们将其与12947更常见的深度表示学习方法(三重损失[15]),并对其进行定量和可视化测试我们的边界和区域表示融合(BRRF)算法将学习的表示与边缘(来自现成的边缘检测器)相结合,如图1.一、我们在本文中的贡献如下:1. 我们提出了(第一)像素级表示通用分割。这种表示捕获分割属性,并在像素对分类任务上比以前的方法执行得更好。2. 我们提出了一种新的分割算法,同时使用建议的像素表示和传统上使用的边缘检测。该算法取得了很好的效果,并为一些质量措施,显着提高了最先进的。2. 相关工作2.1. 语类切分语类切分有着广泛的途径和方法。早期的方法(例如,[8])依赖于局部特征的聚类。现代方法通常依赖于图形表示,其中像素或其他图像元素由图形节点表示,并且边缘上的权重可以表示它们之间的相似性或不相似性。然后,通过将图切割成不同的部分来进行分割[5,32]。例如,自下而上的分水岭算法[25见[11]。OWT-UCM算法[2]使用边缘检测来获得可靠的相异性,并使用定向分水岭变换将图转换为分层区域树。结合多个尺度进一步提高性能[27]。这种方法与CNN边缘检测器相结合,实现了当前最先进的技术[19]。表示分层区域树的一种有效且优雅的方法是通过超度量轮廓图(UCM)[1],也称为显着图[25]。UCM为图像中的每个轮廓分配一个值,以便在层次结构中持续时间较长的轮廓获得较高的值。重新定位地图提供了特定的分割。2.2. 表示学习表示可以使用暹罗网络显式学习[7,17,13]。一个例子是一对输入,标记为相同(正面例子)或不相同(负面例子)。这两个输入都映射到一个表示,通过神经网络的权重是绑定的。网络被训练为最小化正例之间的表示空间中的距离学习也可以是通过三重设置[15,31],其中一个例子是三重输入。前两个输入相对于第三个输入分别为正和负。也可以通过学习监督任务来隐式地学习表示。网络的最后一层可以被视为分类器,而网络的其余部分生成一个表示,并将其馈送到该分类器[10]。这些表示可以稍后用于区分看不见的类[34]或迁移学习[10]。与本文的表示部分最接近的工作是Patch2Vec [12],它通过训练根据分割标记的三元组来学习图像块的嵌入。我们的方法不同,通过使用内隐学习,并允许从完整的图像更大的背景。在[20]中学习了用于通用分割的超像素表示。这项工作不同于我们的每像素表示。正如我们稍后将展示的那样,基于像素是很重要的,因为它允许我们考虑边缘,并构建稍后使用的有效相似性此外,它是以不同的方式学习的,在暹罗设置中使用对比损失,并导致分割结果不如最近的作品(包括我们的作品)中所取得的效果好。3. 表示非语义分割神经网络的一个众所周知的优势是它们能够捕获图像的低级和高级特征,创建强大的表示[37,4]。在这项工作中,我们专注于分割相关的表示,并利用这种优势,以提供一个新的逐像素表示。这种学习的表示应该捕获每个像素的片段属性,使得与属于相同片段的像素相关联的表示在表示空间中接近 这代表-是逐像素的N维向量(因此,表示为R的完整图像表示是H×W×N张量)。学习的分类器已被用于语义(基于模型)分割的上下文中。直接学习分类器对于语义分割任务是可能的,因为每个像素都与清晰的标签相关联:一个特定的类别或背景。这与通用分割的情况不同,在通用分割中,对象类别标签在学习期间不可用,并且在推理中不重要此外,在推理时,与片段相关联的类别不一定是训练中使用的类别。3.1. 学习表示法可以通过最小化三元组上的三元组损失来显式地学习通用分割的像素级表示[15,31]。虽然这种方法已被证明对高级图像表示或补丁有益,但尚未在提供结构化输出的任务上进行探索12948图2:在每列中,从上到下:原始图像,表示空间虚拟颜色,我们的表示的t-SNE,以及来自经过语义分割训练的网络的表示的t-SNE。在t-SNE图中,相同颜色的点属于同一段。请注意,老虎或女人的和服等区域的颜色几乎是均匀的请注意,由我们的表示形成的t-SNE图比替代方案更好地分离。例如分段。我们将在本文的后面部分比较这种方法。表示也可以隐式地学习,通过在相关的高级任务上训练网络,然后将最后一个隐藏层的表示用于原始任务。然而,将这样的学习方法用于通用分割相关表示并不是直接的。为了形式化这样一个高级任务,如分类,标签必须具有某种语义意义。例如,在DeepFace方法[34]中,用于野外人脸验证,L层分类网络使用K(>4000)个面部身份类,并且来自层L-1的N维响应被用作输入图像的表示。使用交叉熵的训练本质上会形成属于同一身份的人脸图像集群[10]。对于足够多的人脸图像,网络可以很好地泛化,即使对于看不见的类别的新图像也这种用法是我们通用分割任务的核心,其目的是分离属于训练中未看到的不同片段的像素我们采用这种方法来学习一个代表-用于一般分割。然而,需要解决一些分歧。首先,我们需要每个图像像素的表示,而不是整个图像的单个表示。因此,我们使用一个全卷积网络,为每个输出像素输出一个N维向量一个更根本的区别是,选择训练标签并不简单。分割示例中的像素根据它们所属的片段被分配标签,但是与面部身份不同,与不同片段相关联的标签在它们不与对象类别或甚至与外观类型相关联的意义上是没有意义的这在给定的标签中产生了歧义。例如,在某个图像中,标签#1表示一匹马,而在另一幅图像中,标签#1指的是天空。为了解决这个问题,我们考虑段的集合从训练集中的所有图像作为不同的类别。也就是说,我们为第j个图像的第i个片段中的所有像素分配唯一的标签lk(sij),该标签在另一个片段或图像中没有其他像素被分配。标记过程的可视化3 .第三章。然而,使用任意类别会导致一些困难。不同图像的两个片段可以对应于相同的对象类别并且可以非常相似(例如,包含蓝天的两个片段),但是它们被认为是不同的类别。因为这两个片段具有基本上相同的特性,所以训练网络以在它们之间进行区分将导致依赖于它们的属性中的小差异或依赖于任意属性(例如,图像中的位置),这两者都导致较差的泛化。 为了克服这个困难,我们修改了训练过程:当在特定图像上训练时,我们将可能的预测类仅限于对应于该图像中的片段的那些类,而不限于整个训练集中的片段。全卷积NN被训练为标准的逐像素分类任务,当成功时,将把每个像素分类到其片段的标签。在这种情况下,网络将学习表示,这些表示对于同一段中的像素是良好聚类的,并且对于不同的像素是不同的。像素在不同的段。我们用Ri表示第i个pixel的表示. 的距离||Ri−Rj||之间Figure 3: Our labeling process.我们分配一个唯一的标签lk每个训练图像中的每个片段。129494两个像素应该反映段相关性。3.2. 表示学习网络我们用于表示学习的网络架构是ResNet-50的修改版本[14]。我们使用层conv1到conv5 3。为了提高空间输出分辨率,我们采用了两种常见的方法:首先,在整个层conv5x中使用atrous(或dilated)卷积[6]。其次,我们使用层conv3 4,conv4 6的跳过连接,并将它们与层conv5 3连接,将所有分辨率上采样到conv3 4,这是原始输入分辨率的四分之一。级联层通过最终的熔丝残留层,以获得每像素512的最终特征深度。图4示出了网络架构(称为RepNet)。图4:我们建议的RepNet架构。一般来说,巨大的像素分类任务(每个像素的类数以千计)是一个主要的硬件瓶颈,限制了我们的分辨率上采样能力。虽然语义分割任务架构能够上采样到原始输入分辨率(对应于原始输入分辨率的数量),但是,类在数十个的范围内),我们被限制为原始输入图像的1×的上采样是用双线性插值完成的。我们发现,在这里,基于去卷积的上采样并没有提高每平方米。该网络使用加权交叉熵损失进行训练为了改进分段分离,我们将与接近边界元(比d更接近)的像素相关联的损失的权重增加了因子wb。所提出的逐像素表示是从soft-max之前的最后一层中提取的,我们称之为fuse。3.3. 可视化表示我们建议两种可视化选项:1. 表示空间虚拟颜色-投影的三维矢量被可视化为RGB图像。我们期望同一段中的像素具有相似的投影和相似的颜色。图2、事实证明确实如此。2. t-SNE散点图-随机邻居嵌入(t-SNE,[35])将它们嵌入2D空间。我们期望在嵌入空间中属于不同段的点之间进行分离,并将该分离与具有相同架构但经过语义分割训练的网络所获得的分离进行比较。见图二、请注意,表示沿边界急剧变化(图。2)。这种行为对于非线性滤波器(例如,双边滤波器),并因此指示像素处的表示主要取决于与包含该像素的段相关联的图像值也就是说,该表示描述了片段,而不是与均匀邻域相关联的简单纹理描述4. 一种分层分割算法许多现代和成功的分层分割算法通过聚集图像元素来工作,基于高质量的边缘检测结果[19,21,2]。为了证明所提出的表示的效用我们使用了两次代表。首先,用于重新计算一对段的离散度值,然后用于使用区域上下文对这些值重新排序。我们建议的边界和区域表示融合(BRRF)算法的分层图像分割包括三个阶段:1. 创建初始过分割并计算建议的区域表示。2. 使用分类器计算每两个相邻段的增强对不相似性。3. 迭代地,合并成对的片段并使用区域上下文重新计算相异性。4.1. 算法初始化我们使用定向边缘检测结果和分水岭算法[2,21]获得初始过分割我们通过迭代地将小于32像素的每个SP与其最相似的邻居(在其共享边界中具有最低平均边缘强度的邻居)组合来去除小超像素(SP)。这是聚集分割中的常见做法,并且由于表示对于非常小的SP是不准确的,因此在这里是必要的。独立地,我们计算如3.2节所述的表示。为了提高小片段的性能,我们通过双线性插值将表示上采样到原始图像分辨率的一半。出于计算原因,我们使用PCA将表示的维度减少到9(为该图像单独计算)。这种变换是有效的,因为特定图像中的表示位于低维子空间中129504.2. 对相异度计算为了将表示纳入凝聚过程中,我们使用了一个学习的相异性函数,该函数取决于表示,边缘强度和一些描述片段几何形状和原始颜色的附加属性这种相异性,表示成对Dissim,计算每对相邻段。较高的相异度指示两个片段更可能属于不同的(语义)对象。我们在第5节中详细介绍了学习不同之处。4.3. 迭代合并阶段这个阶段是迭代的。在每次迭代中,我们将两个片段合并为一个,然后重新计算合并片段与其相邻片段之间的相异性。合并的段可以被选择为与当前层级中的最低PairDissim相关联的对。这很有效(见6.3节),但通过依赖基于上下文的聚类测试(也使用表示),可以实现更好的Silhouette评分[30]是聚类分离的无监督度量。它计算包含在一个聚类中的元素与其他聚类中的其他元素之间的差异,并将这些差异与聚类内的当前者高而后者低时,它获得了高分,表明聚类分离得很好受Silhouette分数的启发,我们考虑一个片段对,并测试两个片段的联合是否是一个分离良好的集群。用S表示候选合并片段,用Sn表示其所有相邻片段的并集(在当前片段中);参见图11中的示例。五、 设d(Ri,Rj)是分别对应于像素i,j的表示Ri,Rj然后,与像素相关联的相异性a(i),b(i)i∈S,对应的轮廓分数为:图5:Silhouette 分数计算。合并的段候选者S(红色),其相邻段的工会Sn(蓝色),并处理不相关的段(黄色)。在每次迭代中,我们只考虑实现最小T(= 4)对相异性的对,并合并实现最小增强相异性的对Aug Dissim=Pair Dissim−0。5·Sil评分。 (二)(请注意,合并时首选Sil分数高的我们把这个过程称为重新排序。4.4. 参数化层次结构迭代合并过程创建了一个分割层次,由UCM值参数化,该UCM值应与迭代次数单调(第2.1节,[1])。这是边缘置信度的情况[2,21],但不一定是我们的相异度值;参见附录A中的图1。使用迭代次数本身[9]是有问题的:它与不同图像的分割质量并不一致。因此,通过均匀的、与图像无关的阈值处理来控制分割粗糙度,会产生不均匀的分割(以及低ODS F分数)。我们使用了Pair Dissim的单调化值,得到了很好的结果。见附录a5. 对相异分类器a(i)=1|S|− 1Σd(Ri,Rj)j∈S,j/=i5.1. 配对相异特征我们使用三种类型的特征进行分类:b(i)=1|S n|Σj∈Snd(Ri,Rj)(一)基于表示的特征-第一种类型是从两种表示计算的10个特征,Sil评分=1|S|Σi∈Sb(i)−a(i)max{a(i),b(i)}相关片段我们只使用一个子集的像素表示从段(见第5.3节)。对于每一对像素,每个片段一个,我们称之为-对于较大的片段,只有片段像素的子集用于S和Sn;参见第5.3节。这个标准本身不够准确,不能作为配对差异的替代。这在合并过程的开始时尤其适用,此时分段很小,并且通常与它们的邻居没有很大不同因此,我们不计算轮廓分数,直到我们有少于#s=120段。然后,计算它们之间的L2和余弦距离的最小值、最大值、平均值和中位数(遵循[16]),以及每个片段中表示的计算平均值之间的距离。L2距离被其对数值替换,以使计算的所有距离都在同一范围内。这种特征的选择遵循经典的凝聚聚类方法[33]。12951BSDS 500-边界测量(Fb)BSDS 500-区域测量(Fop)图6:BSDS试验评价:用于评估边界的精确度-召回曲线[23]和区域[28]。虚线中的开放轮廓方法和实线中的闭合边界(来自分割)。ODS、OIS和AP汇总测量。标记指示最佳操作点,其中Fb和Fop最大化。基于边缘的特征-来自边缘检测算法的片段之间的平均边缘概率得分[21,19]。几何和原始颜色特征-前3个特征描述合并段的几何形状:段之间的边界的长度(的平方根)、组合段大小(的平方根)以及(段之间的)边界长度与段周长的最大比率。最后3个特征描述了颜色的不相似性,并被指定为两个片段中LAB颜色空间值的平均值之间的3个差异这17个特征用作输出配对差异的分类器的输入。虽然边缘检测信息量很大,但我们的表示对与高级段内容相关的属性信息进行编码,因此它进一步提高了性能。5.2. 训练分类器为了训练分类器,我们使用从所使用的边缘检测算法生成的分割层次结构中提取的从每个层次,我们首先生成几个分割阈值的UCM与不同的值。我们使用分割中的所有相邻片段对应该合并)或否定(不应该合并)的例子。当一个对的共享边界的至少0.6接近(在2个像素内)至少一个地面实况注释中指定的边界时,该对被视为负。根据经验确定阳性和阴性实例我们用几个分类器进行了实验,发现最好的结果是用LR(Logistic Regres-Sion)和MLP(多层感知器);参见附录C。5.3. 分段过滤和采样表示在每个段上不完全均匀,并且特别地,包括离群值。因此,在使用表示向量之前,我们使用隔离森林[18]对其进行过滤为了提高计算效率,我们还对大片段(>300像素)进行采样。滤波和采样都提高了精度;详见附录B。6. 实验我们首先提出的表示学习过程的细节和评价这些表示在像素对分类任务。然后,我们简要地比较了一些版本的凝聚分割算法。最后,我们提出了定量和定性的分割结果。BRRF算法运行时间为45秒/图像(平均)。没有尝试优化代码。我们的RepNet和BRRF算法的代码都可以在https://github.com/oranshayer/BRRF上找到。6.1. RepNet培训详情我们通过第3.1节中描述的分类任务训练了PascalContext数据集[24]和BSDS 500数据集[22]的表示网络。对于Pascal Context,我们从ImageNet预训练的权重开始,并使用包含5540个片段的1000张图像进行训练。我们训练了300个epoch的网络,d=8,w b=5,SGD优化器将动量设置为0。9,学习率为0。01,在250个时期之后除以10。对于BSDS 500数据集,该网络是从Pascal上训练的网络中微调的,其中300个训练值图像包含2060个片段。我们开始时的学习率是0的情况。001训练了300个纪元。方法ODSFbOISAPBRRF-RCF-LR(我们的)0.8150.8380.855BRRF-COB-LR(我们的)0.7970.8200.835BRRF-COB-MLP(我们的)0.7980.8190.832RCF-ResNet50 [19]0.8080.8330.873[第21话]0.7930.8200.859HED [36]0.7800.7960.834LEP [38]0.7570.7930.828方法ODSFopOISAPBRRF-RCF-LR(我们的)0.4790.5310.390BRRF-COB-LR(我们的)0.4510.5130.359BRRF-COB-MLP(我们的)0.4360.5030.33812952Pascal Context - Boundary Measure(Fb)Pascal Context - Region Measure(Fop)方法ODSFbOISAPBRRF-COB-LR(我们的)0.7510.7850.756BRRF-COB-MLP(我们的)0.7530.7810.750[第21话]0.7500.7810.773HED [36]0.6880.7070.704方法ODSFopOISAPBRRF-COB-LR(我们的)0.5080.5800.439BRRF-COB-MLP(我们的)0.5080.5790.427[第21话]0.4910.5650.439图7:Pascal上下文测试评估:用于评估边界[23]和区域[28]的精度-召回曲线[21]第21话我的世界图8:我们的算法和其他竞争算法产生的一些分割示例。通过最大化层级中的Fop分数来选择分割。我们的算法实现了不同对象之间更清晰的分割(例如,第1行和第3行中的面部);捕捉同一类的片段之间的差异(第2行中的背景);但与窄片段(第4行中的角)作斗争。6.2. 评估表示为了评估表示本身的质量任务是确定是否两个像素属于同一段使用的表示。为此,我们使用一个简单的classi- fier,它决定像素属于相同的seg.如果表示之间的欧几里德距离小于阈值,则将其移除。最佳阈值是在验证集上学习的。结果示于表1中。我们将从我们的隐式学习方法获得的表示与如下学习的表示进行了比较:三重丢失,来自训练用于12953语义分割[6],以及来自为材料分类而训练的网络的表示,其中材料具有强纹理特征[3]。 我们还比较了以下像素表示:RGB、L*a*b和Gabor滤波器。显然,我们提出的表示实现了最佳结果,这表明它可以有利于像素分离任务,如图像分割。表示测试准确度Gabor滤波器56.09%RGB 57.67%边缘Geo.和颜色 众议员重新排名 FopX0.453XX0.484XX0.49XXX0.509XXXX0.512表2:特征对分割结果的数据集。L*a*b 58.25%材料分类净值[3] 70.14%[6]第六届全国人大代表三胎丢失76.34%我们的(内隐学习)81.04%表1:像素对分类结果6.3. 比较不同的合并函数我们试验了几个版本的合并函数,发现它对参数相当鲁棒详见附录C。配对相异性的不同组成部分-表2显示了Fop评分的OIS测量。对于每种组合,分类器都经过重新训练,然后在BSDS 500验证集上进行测试。添加代表明显提高了我们的分数。重新排序-重新排序需要很少的额外运行时间,但提高了准确性(参见表2和附录C)。将(#s,T)增加到(120,4)以上不会导致进一步改善。滤波和采样-使用隔离滤波器进行滤波可提高精度(OISFop增加0.004),并将运行时间增加20%。使用更少的样本显着加快算法,有点令人惊讶的是,稍微增加了准确性。6.4. 通用图像分割我们在BSDS 500数据集[22]和Pascal Context数据集上评估了我们的[24](独立地)用于LR和MLP分类器,使用[21]进行边缘检测(分别表示为BRRF-COB-LR和BRRF-COB-MLP)。此外,我们在BSDS 500上使用[19]在ResNet50架构上评估了我们的算法,用于使用LR分类器(表示为BRRF-CRF-LR)进行边缘检测。我们在两者的训练集上训练BSDS 500:结果见图。六、使用LR分类器和[19]边缘检测,我们已经匹配或改进了最先进的结果,Fb评分[23]。值得注意的是,我们已经达到了与人类注释者相匹配的召回率和准确率。对于Fop评分[28],我们显著提高了两个版本F评分的最新技术水平,并提高了平均精度。Pascal上下文:结果是相似的;参见图7。 使用LR分类器,我们已经匹配或改进了两个版本(OIS和ODS)的最新结果。Fb和Fop,后者改善更为显著。对于这两个数据集,该算法实现了更实质性的改善的区域评价措施(Fop)。这是预期的,因为我们的算法通过使用区域表示来区分。虽然我们在几乎所有的Fb、Fop分数中得到了最好的结果,但AP分数并不总是如此,AP分数也受到极端过度分割和分割不足的影响7. 结论我们提出了一种新的通用图像分割方法,它结合了边缘检测和(一种新的)逐像素表示的优势。通过制定一个合适的监督学习任务学习的表示因此,它补充了边缘信息并提高了分割质量,特别是在基于区域的质量测量方面。实验上,所提出的表示本身在像素对分类中实现了出色的最先进的结果通过一个完整的分割算法使用这些表示产生的通用分割的最先进的结果。12954引用[1] P. Arbelaez 用超度量等高线图提取自然图象的边界在2006年计算机视觉和模式识别研讨会(CVPRWIEEE,2006年。[2] P. Arbelaez,M.迈尔角Fowlkes和J.马利克轮廓检测与分层图 像分 割。 IEEE传输 模式 分析马 赫内 特尔 ,33(5):898[3] S. Bell,P. Upchurch,N. Snavely和K.巴拉野外材料识别与上下文数据库中的材料计算机视觉与模式识别(CVPR),2015年。[4] Y. Bengio,A. Courville和P。文森特表征学习:回顾与新 的视 角 。 IEEE Transactions on Pattern Analysis andMachine Intelligence,35(8):1798[5] Y.博伊科夫岛Veksler和R.扎比基于图割的快速近似能量最 小 化 IEEE Transactions on Pattern Analysis andMachine Intelligence,23(11):1222-1239,2001.[6] L- C. Chen,G.帕潘德里欧岛科基诺斯角墨菲和A. L.尤尔。基于深度卷积网和全连接crf的语义图像分割。2015年,国际会议[7] S.乔普拉河Hadsell和Y.乐存。区别性地学习相似性度量,并应用于人脸验证。在2005年IEEE计算机协会计算机视觉和模式识别会议(CVPR'05)的会议[8] D. Comaniciu , P.Meer 和 S. 会 员 是 否 Mean Shift : ARobust Approach Toward Feature Space Analysis(MeanShift:一种第24卷,第603-619页[9] J. 库斯特湖Najman,Y. Kenmochi和S. 你好。具有图形的高分辨率分割:准平坦区、最小生成树和显著图。Journal of Mathematical Imaging and Vision,60(4):479[10] J. Donahue,Y. Jia,O. Vinyals,J. Hoffman,N. 张先生,E. tzeng和T.达雷尔。Decaf:用于通用视觉识别的深度卷积激活功能机器学习国际会议,第647-655页,2014年[11] P. F. Felzenszwalb和D. P. Huttenlocher。高效的基于图的图像分割。国际计算机Vision,59(2):167-181,Sept. 2004年[12] O.弗里德,S. Avidan和D.科恩-奥Patch2vec:全局一致的图像补丁表示。计算机图形学论坛,第36卷,第183Wiley Online Library,2017.[13] R. Hadsell,S.Chopra和Y.乐存。通过学习不变映射来降低维数。计算机视觉和模式识别,2006年IEEE计算机学会会议,第2卷,第1735-1742页。IEEE,2006年。[14] K.他,X。Zhang,S. Ren和J. Sun.用于图像识别的深度残差学习arXiv预印本arXiv:1512.03385,2015。[15] E. Hoffer和N.艾伦使用三重网络的深度度量学习。在基于相似性的模式识别国际研讨会上,第84-92页。施普林格,2015年。[16] S. Horiguchi,D. Ikami和K.相泽与基于距离度量学习的特 征 相 比 , 基 于 softmax 的 特 征 的 重 要 性 。 IEEETransactionsonPatternAnalysisandMachineIntelligence,2019。[17] G. 科 赫 河 Zemel 和 R. 萨 拉 赫 季 诺 夫 Siamese neur- ralnetworks for one-shot image recognition. ICML深度学习研讨会,第2卷,2015年。[18] F. T. Liu,K. M.丁和Z- H.舟与世隔绝的森林2008年第八届IEEE数据挖掘国际会议,第413-422页。IEEE,2008年。[19] Y. 刘 , M.- M. Cheng , X. 胡 , J. - W. 边 湖 , 澳 - 地Zhang,X. Bai和J. Tang。用于边缘检测的更丰富的卷积 特 征 。 IEEE Transactions on Pattern Analysis andMachine Intelligence(TPAMI),41(8):1939[20] Y. 刘,P. -T. Jiang,V.Petrosyan,S.-J. Li,J.边湖,澳-地Zhang,M. M.程Del:深度嵌入学习用于有效的图像分割。在IJCAI,2018。[21] K. Maninis,J. Pont-T uset,P. Arbel a'ez和L. V. 好极了面向 卷积 的边界 :从 图像分 割到 高级任 务。IEEETransactions on Pattern Analysis and Machine Intelligence(TPAMI),2017。[22] D.马丁角,澳-地Fowlkes,D. Tal和J.马利克 人类分割自然图像数据库及其在评估分割算法和测量生态统计中的应用。第八届国际会议论文集计算机视觉,第2卷,第416-423页,2001年7月。[23] D. R.马丁角,澳-地C. Fowlkes和J.马利克学习使用局部亮度、颜色和纹理线索检测自然图像边界。IEEE传输模式分析马赫内特尔,26(5):530[24] R. Mottaghi,X. Chen,X. Liu,N.- G.周S W.李,S。菲德勒河Urtasun和A.尤尔。上下文在自然界中对象检测和语义分割中的作用。在IEEE计算机视觉和模式识别会议中,2014年6月。[25] L. Najman和M.施密特分水岭轮廓的测地线显著性与分层 分 割 。 IEEE Transactions on Pattern Analysis andMachine Intelligence,18(12):1163[26] O. M. Parkhi、黑腹拟步行虫A. Vedaldi、A. Zisserman等人深度人脸识别。在BMVC,第1卷,第6页,2015中。[27] J. Pont-T uset,P. Arbel a'ez,J. Barron,F. Marques和J.马力。用于图像分割和对象建议生成的多尺度组合分组。载于arXiv:1503.00848,2015年3月。[28] J. Pont-Tuset和F.马克图像分割和对象建议技术的监督评 估 。 IEEE Transactions on Pattern Analysis andMachine Intelligence(TPAMI),38(7):1465[29] J. Redmon和A.法哈迪。Yolo9000:更好、更快、更强。arXiv预印本arXiv:1612.08242,2016。[30] P.J.马塞卢。剪影:聚类分析的解释和验证的图形辅助工具。计算与应用数学杂志,20:53[31] F. Schroff,D. Kalenichenko和J.菲尔宾Facenet:用于人脸识别和聚类的统一嵌入见CVPR,第815-823页IEEE计算机学会,2015年。12955[32] Shi和J.马利克标准化切割和图像分割。IEEE传输模式分析马赫内特尔,22(8):888- 905,Aug. 两千[33] P. H.塞韦河R. Sokal等人数值分类学数字分类的原理与实践。一九七三年[34] Y.泰格曼,M。杨,M. Ranzato和L.狼Deepface:缩小人脸验证中与人类水平性能的差距。在2014年IEEE计算机视觉和模式识别集,CVPRIEEE计算机协会。[35] L. van der Maaten和G.辛顿使用t-sne实现高维数据的可视 化 。 Journal of Machine Learning Research , 9 :25792605,Nov 2008.[36] S. Xie和Z.涂。整体嵌套边缘检测。IEEE InternationalConference on Computer Vision,2015。[37] M. D. Zeiler和R.费格斯。可视化和理解卷积网络。在欧洲计算机视觉会议上,第818-833页。Springer,2014.[38] Q.赵 以最少的努力分割自然图像作为人类。In M. W.J.Xianghua Xie和G. K. L. Tam,编辑,英国机器视觉会议(BMVC),第110.1-110.12页。BMVA出版社,2015年9月。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 李兴华Java基础教程:从入门到精通
- U盘与硬盘启动安装教程:从菜鸟到专家
- C++面试宝典:动态内存管理与继承解析
- C++ STL源码深度解析:专家级剖析与关键技术
- C/C++调用DOS命令实战指南
- 神经网络补偿的多传感器航迹融合技术
- GIS中的大地坐标系与椭球体解析
- 海思Hi3515 H.264编解码处理器用户手册
- Oracle基础练习题与解答
- 谷歌地球3D建筑筛选新流程详解
- CFO与CIO携手:数据管理与企业增值的战略
- Eclipse IDE基础教程:从入门到精通
- Shell脚本专家宝典:全面学习与资源指南
- Tomcat安装指南:附带JDK配置步骤
- NA3003A电子水准仪数据格式解析与转换研究
- 自动化专业英语词汇精华:必备术语集锦
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功