没有合适的资源?快使用搜索试试~ 我知道了~
6338通过CNN封装Dustin Morley and HassanForoosh University of CentralFlorida奥兰多,FL 32816网址:dustinrmorley@knights.ucf.edu,foroosh@cs.ucf.edu摘要在这项工作中,我们提出了一种方法,通过将其封装在卷积神经网络(CNN)中来改进基于随机样本一致性(RANSAC)的图像分割算法。通过使用新的基于RANSAC的损失函数对预RANSAC滤波和阈值化操作的集合进行梯度下降训练来获得改进,该损失函数面向相对于最具说服力的假模型优化正确模型的强度。因此,可以说,我们的损失函数在直接决定最终分割的成功或失败的指标上训练网络,而不是仅仅与成功或失败相关的指标。我们成功地将该方法应用于从CASIA-IrisV 3虹膜识别数据集识别图像中瞳孔边界的RANSAC方法,并且我们期望该方法可以成功地应用于任何基于RANSAC的分割算法。1. 介绍卷积神经网络(CNN)在过去的几年里已经彻底改变了计算机视觉领域最近的这场革命最终起源于二维图像中的对象识别这一特定领域,然后迅速蔓延到其他领域,如语义分割。作为该方法自然演变的一部分,利用CNN进行分割的早期工作尽可能保持与传统对象识别方法的相似性。除此之外,这导致了仍然常用的方法,即训练CNN从图像中分类单个补丁,而不是一次对整个图像进行最近关于分割的研究[15]出于各种原因(包括效率)开始偏离这一点事实上,在基于CNN的分割中一次对整个图像进行操作的方法与不涉及深度学习的分割流水线有着更清晰的相似之处。模型特定的分割问题,定义为一个分割,图1.我们通过CNN封装改进RANSAC分割性能的方法,显示了瞳孔分割示例问题的理想化中间输出。在将算法封装到CNN中之后,利用基于RANSAC的损失函数对网络进行微调。其中预先已知期望对象的边界的一些简单的数学形式的分割问题,还有待用CNN探索到其他分割问题的程度。一种解决模型特定分割问题的流行方法是6339使用RANSAC来执行数学形式,因为这种方法对离群值非常鲁棒在这些方法中,通常存在在原始输入上发生的滤波和阈值化步骤,以生成用于RANSAC算法的输入我们试图证明,这些方法(或至少其中的重要部分这样做的另一个有趣的方面是,为模型特定的分割问题构建的CNN通常比目前参与现代深度学习革命的CNN架构要小得多因此,我们的工作为CNN概念和技术如何推广到更小的问题规模提供了一些验证我们将我们的CNN公式应用于人眼图像中的瞳孔分割问题。这是一个在生物识别[2][3][27]和眼科手术[1][16]中具有重要应用的问题,已经用经典的计算机视觉方法进行了充分的研究,由于瞳孔和虹膜之间的对比度在正常的红外成像条件下相当好,梯度强度是这些算法中的一个关键基础属性,这一事实直接意味着应该可以将这些算法的一部分交换为CNN,并实现更好的性能。我们直接探索这一点,首先沿着典型的经典计算机视觉方法构建一个算法(具体来说,阈值处理,边缘检测和过滤掉无关边缘的组合),直接将该算法转换为CNN(通过直接复制卷积滤波器,使用滤波器偏差和ReLU层的组合进行阈值处理,并在必要时添加自定义层进行额外的计算),然后执行训练时期以进一步微调构造的CNN。总之,我们的工作做出了以下贡献:我们提出了一种新的模型特定分割框架,该框架使用基于RANSAC输出的损失函数来统一CNN和RANSAC方法;我们成功地使用我们的框架通过CNN训练来微调功能RANSAC分割算法;我们通过大量的实验证明了我们的方法的鲁棒性;我们成功地证明了CNN对问题类型和大小的利用,这与典型的CNN工作非常不同,从而为CNN框架的适应性和通用性提供了重要的额外验证。2. 相关工作CNN一直是一个积极研究和讨论的主题,特别是自从首次报道图像分类的显著性能提升以来[12]。虽然CNN技术的基本原理可以说已经存在了几十年[13],但直到最近几年,CPU和GPU才发展到足以允许这些技术应用于大型的典型大小的图像集。从那时起,关于如何解释训练的CNN[30]以及它们如何推广到其他数据集甚至不同的任务[21]等主题的讨论一直很重要。除了分类之外,CNN还成功应用于各种视觉任务,例如分割[8][15],超分辨率[4]和边缘检测[28]。近年来CNNs出现的一个重要概念是微调的想法,通常指的是将CNNs作为起点,该CNN已经为某些任务和数据集进行了预训练,并将其应用于不同的任务和/或数据集。这样做的成功是有据可查的[28][21],预先训练的网络至少具有合理的性能(由于预先训练的CNN中的过滤器对各种有用的特征表现出积极的响应)和训练后的出色性能。我们的工作一般都是在这一领域进行的,但重要的区别是从手动设计的“简单”CNN开始,我们无法在其他研究人员尝试这项任务的文献中找到任何实例CNN的另一个有趣的发展是,随着它们被用来解决各种问题而出现的,是利用各种各样的损失函数进行训练。 越来越多的兴趣的一个例子是使用结构化损失的对象的精确位置[31][23]。作为另一个例子,Shen etal.[22]提出了一个独特的损失函数轮廓检测的基础上的想法,轮廓检测中的假阴性是比错误标记轮廓的“类型”更严重的错误。这些例子证明了定义损失函数的重要性,该损失函数尽可能与手头问题的最重要指标保持一致这一理念启发我们针对模型特定的分割问题使用独特的基于RANSAC的损失函数(见第3.4节)进行实验,因为这使我们能够将损失函数直接定位到最终紧急算法的成功率这与典型的CNN分割方法形成直接对比,在典型的CNN分割方法中,对象边界不是直接输出,必须通过对CNN输出应用附加算法来找到(例如,CNN可以输出某种概率图,边界信息必须通过如图切割或RANSAC算法从概率图中得到。RANSAC[5][19]已被应用于许多不同的问题,从机器人[24][29]到生物医学,6340[26][17][11][20]. 它的许多优点包括对异常值的鲁棒性和易于实现。然而,像所有的估计方法一样,它的性能依赖于输入。如果所有的内点都存在,并且没有一组离群点形成被拟合的模型的强实例,则RANSAC实际上保证在足够的迭代下识别正确的模型。如果一些内点缺失,则RANSAC输出可能具有准确性问题。如果存在大量离群值,或者如果离群值的大子集因此,当使用RANSAC时,尽可能地优化输入是重要的我们试图证明,卷积神经网络可以是一个有效的工具,为accomplish这一优化任务。3. 方法在本节中,我们将详细描述我们的方法。我们的CNN包含四个阶段:预处理、特征提取、杂波去除和RANSAC模型拟合。前三个权重和偏差也可以在训练之前基于来自其他成功方法的现有见解对于成功的分割,这些输出的联合应该理想地包含感兴趣对象的边界点的完整集合,其中假阳性的量最小和/或容易通过杂波去除阶段减少。特征提取的主干最终是一组卷积滤波器,不同特征提取方法的主要差异来源在于所使用的滤波器组以及它们的输出最终组合的方式。例如,边缘特征与它们具有方向依赖性,这意味着单个滤波器不能捕获对象的所有边缘。因此,一种简单的边缘检测方法是使用一个滤波器来提取水平边缘强度和一个滤波器来提取垂直边缘强度,然后从两个所得边缘图的Eu-clidean范数构建完整的边缘图。可以肯定的是,两个特征图的这种欧几里德归一化不是CNN中传统的操作,但是没有理由我们在实验中成功地应用了这一事实。特别地,我们将一个自定义层插入到CNN中,该CNN在给定损失函数L的情况下对表示为gx和gy的两个输入通道执行以下向前和向后计算:.h=g2+g2(1)解决眼前的问题我们认为,使用我们的方法进行初始化,使其非常适合于工业应用,在这些应用中,目前使用的算法已经执行得非常好,因为这允许一个起点。X y.ΣL=-g x.Σ(二)在很大程度上(如果不是完全)保留了原始的性能,在任何机器学习之前我们的CNN的最后一个阶段是RANSAC层,它可以直接执行L波格河L=-∂h ∂gy ∂h h(三)RANSAC模型拟合在向前通过和计算一种新的RANSAC为基础的损失函数在向后通过。3.1. 预处理对于我们的方法是applicable类的问题,预处理阶段可以涉及任何组合的平滑,重新缩放,和阈值。在CNN术语中,平滑和重新缩放是卷积操作,而阈值处理可以通过向内核输出添加偏置,然后将输出通过整流线性单元(ReLU)层来执行该相位的重要性在很大程度上依赖于要分割的对象的强度分布相对于整个数据样本中的背景的强度分布的规律性。对于更不规则的强度分布,该层将不得不具有较低的侵略性,或者包括相当多的内核/偏置组合。3.2. 特征提取特征提取阶段的目标是从预处理阶段的输出构建特征图另一方面,通过利用更多的滤波器,人们也可以具有用于不同边缘方向的完整的滤波器组,并且将它们与几种可能的方法中的一种组合,包括跨所有输出的欧几里德范数、跨所有输出的最大值、所有输出的平均值、或应用于输出的另一层卷积滤波器(其在单个滤波器被与输出一起使用的限制中收缩为平均选项)。对于所有输入通道,中心值等于1,所有其他值设置为零)。任何可微操作在CNN中都是公平的。3.3. 杂波去除一旦提取了特征,通常需要对特征进行某种修剪过程,包括丢弃弱特征、完全删除某些特征类或将附加过滤器强制应用于特征图的任何组合。在CNN中,ReLU层是丢弃弱特征的最直接方法。 关于其他类型的操作,CNN可以被构造为具有进入该阶段的多个很大程度上独立的通道,63411+Sii塞济岛这是重要的,因为然后可以将这些通道中的一些解释为集中于获得要被分割的对象的边界像素的高特征其他通道反而集中于获得图像中其他对象或伪像的高特征强度。在该框架中,第二类通道从第一类通道的某种加权减法应产生用于期望对象边界的良好最终图。这种加权减法的思想当然可以直接用卷积核来执行,卷积核可以在减法之前同时对通道应用其他感兴趣的操作(例如平滑)。可替代地,在某些情况下,也可以提前滤除不期望的对象或伪影。例如,虹膜识别中的许多分割流水线将LED反射作为最早的步骤之一[7][14]。体现这种设计理念的CNN只是其中前几层产生的输出是(理想情况下)原始图像,但去除了不希望的伪影。我们利用这些方法中的每一种进行CNN实验,如果数据中存在更令人信服的替代模型,则实际上无法(假设迭代次数足够多)返回真实模型这意味着不是Z中的所有假阳性都同样重要,因为一组假阳性随机分散的点)比一组确实适合模型实例的假阳性更不可能引起问题。在虹膜图像的情况下,除了形成圆形的瞳孔之外,图像中还存在其他结构:眼睑、虹膜外边界和瞳孔内的LED环。因此,RANSAC是否成功或失败的关键因素是最强出于这个原因,我们提出了一个损失函数,该损失函数以最强冒名顶替者和真实模型的RANSAC分数之间的比率为中心,加上附加项来惩罚假阴性和假阳性(因此,误差函数完全忽略真阴性)。解释一下,我们的损失函数如下:删除(事实上,它们并不相互排斥),但我们将更多的精力集中在第一种方法上,因为它是简单的。L=log.′Σ1+S−α1+SΣZ(x,y)+βΣZ(x,y)(4)心理状态更加直接。3.4. RANSAC拟合和反向传播(x,y)∈CZ(x,y)≤0′∗∗′(x,y)∈/C<$CZ(x,y)>0′提供S 和S最强冒名顶替者C也许我们的作品最独特的方面是小说我 们 在 CNN 中 使 用 的 基 于 RANSAC 的 损 失 函 数 。RANSAC[5][19]是一种对噪声非常鲁棒的模型拟合技术,因为如果输入具有足够的信号强度以获得所需形状,则离群值对最终形状没有影响。它也是一种非常通用的技术,适用于任何建模问题,其中固定数量的数据点定义了模型的实例。我们的RANSAC实现瞳孔检测操作双-和真实模型C,得分计算如下:ΣS=Z(x,y)(5)(x,y)∈CZ(x,y)>0该损失函数可以容易地相对于Z中的每个点进行区分,如下所示:根据以下步骤(假设圆形模型)直接在前一CNN层的输出Z上:构造所有点(x, y)的列表,其中Z(x, y)>0;选择−1:(x,y)∈C1n,zi≥0′随机选取其中三个点,并构造唯一的cir-cirL=1+S′:(xi,yi)∈C,zi≥0−α:(xi,yi) ∈C,zi≤0(六)通过这些点的循环C;计算该循环的分数斯塔兹岛β:(x,y)∈/C′C,zi>0基于足够接近圆的点处的Z值来圆,但是如果圆违反已知的几何约束,则分配0分;重复随机点采样和圆评分步骤固定次数,保持(并最终返回)最高评分圆。现在我们来讨论一个非常有趣的问题:是什么导致了RANSAC失败?当然,如果Z=0 <$(x, y)∈C<$,C<$表示真圆,RANSAC肯定会失败。实际上,沿真圆的点处的输入值为这显然是一个关键因素。但是这些值实际上必须有多高呢?其他值实际上必须有多低?答案是,如果满足真实模型的点都具有正值,则RANSAC可以0:否则我们的损失函数有一些有趣的方面。如果数据中存在强冒名顶替者,则此损失函数将降低包含冒名顶替者的点的值如果数据中没有特别强的冒名顶替者,则损失函数的这一方面过渡到在随机基础上对误报的任意子集应用更严厉的惩罚。此外,假阴性总是受到惩罚。3.5. 参数我们的方法确实包含一些必须预先指定的参数6342(即,未学习的参数6343或者直接从数据优化)。其中两个是全局应用于损失函数中的假阴性和假阳性(分别)的权重α和ββ不需要非常大;事实上,它甚至可以为零,因为这只是意味着只有RANSAC层检测为冒名顶替者的误报才会有助于反向传播。α是一个更重要的参数,因为设置α>0是惩罚假阴性的唯一方法。除非另有说明,否则我们使用 值 α=1 和 β=0 。 01 我 们 的 实 验 其 他 重 要 参 数 是RANSAC算法中涉及的参数。这包括在计算分数时模型成员的容限、与作为输入提供的点的数量相关的RANSAC迭代的数量、用于将所提出的模型标记为冒名顶替者的标准以及用于拒绝严重违反所讨论的对象的可行几何形状关于分数计算中的容差参数的一个重要点是,用于CNN的向前和向后传递的容差不一定必须相同;例如,使用较小的值进行向后传递具有在权重更新时更保守除非另有说明,我们通常在前向传递中使用2像素的公差,在后向传递中使用1像素的公差。我们还对瞳孔半径应用了一个非常宽松的上限(大约是 数 据 集 中 平 均 半 径 的 5 倍 ) 作 为 约 束 。 最 后 ,RANSAC迭代的次数被设置为输入数据点的数量除以5,但最大值为2000。4. 实验我们使用来自CASIA-IrisV 3数据集1的图像进行了几个实验,该数据集包含来自超过249个受试者的2000多个虹膜图像(包括大多数受试者的左眼和右眼的图像)。该数据集的地面实况分割是公开可用的[9]。我们不是第一个在眼睛图像上实验CNN的人-例如,参见[6]和[10]-然而,据我们所知,没有其他已发表的作品使用CASIA数据集评估分割CNN。我们为这些实验构建的CNN非常小,只包含几千个自由参数。我们所有的实验都是在MATLAB 中使用Matconvnet [25]进行的。我们在实验中没有使用GPU,由于CNN的大小,这并不是一个真正的问题(在我们的实验中,计算速度仅向前传递每秒5张图像,向前和向后传递每秒1到2张图像为了分析虹膜识别和虹膜配准中瞳孔定位中的小误差的重要性,读者可以参考[18](承认)和[16](登记)。1http://biometrics.idealtest.org4.1. 基本配置定义我们的基础网络架构共有3个卷积层。第一个卷积层包含两个在灰度图像上操作的滤波器(大小为H×W),第一个被初始化为逆高斯平滑滤波器,大的正偏置,第二个被初始化为具有中等负偏置的平滑滤波器然后将输出馈送到ReLU层,结果是该ReLU层的第一输出通道中的下一个卷积层被初始化,以使用基本的Sobel型滤波器从第一输入通道提取水平和垂直边缘,同时还卷积设计成对LED反射具有强烈响应的Gabor小波的四个不同方向的族-因此,总共有6个输出通道。然后这些被馈送到定制层,该定制层计算前两个输入通道的euclidean范数(参见第3.2节),并在每个像素位置提取其他四个通道的最大值,以产生第二个输出映射。然后,这些输出被馈送到另一个ReLU层,然后被馈送到第三卷积层,该第三卷积层被初始化为从“信号”通道中加权减去理想情况下,这一层产生的输出包含整个瞳孔边界,没有其他内容(见图1)。然后,将该输出馈送到我们的RANSAC层,如第3.4节中所讨论的我们用总共35个epoch训练网络,批量大小为30张图像,动量为0。9、体重0的衰减。0005,前15个学习率为10−6epoch和10−7用于接下来的20个epoch。4.2. 基本配置结果使用1051个训练图像和1577个测试图像的该实验的结果表1显示了通过CNN训练在正确识别瞳孔中心和半径的能力方面取得的边际但显著的准确性增益,而图2说明了这种增益的大部分性质实际上是以重新移动方向偏差的形式出现的。此外,表2和图3显示了训练前后最终边缘图的有效性。训练后的网络在平均召回率上有了巨大的提高,而平均准确率只有小幅下降,这对平均F1分数略高有利。同样重要的是,这些指标的标准差显著降低另一个重要的结果是没有观察到过拟合;当在训练集上进行评估,中心和半径误差仅略有不同(1。04±0. 54和0。48±0。36),平均精确度,召回率和F1分数几乎相同(每个都在0。002的相应测试设定值)。在这一点上,它是适当的想知道究竟是什么6344图2.训练之前(上图)和之后(下图)的瞳孔分割误差分布,使用我们的基本配置,参数设置如第3.5节所述。对于控制瞳孔最佳拟合圆的所有三个几何参数,初始算法在一个方向或另一个方向上产生了可测量的偏差,通过CNN训练优化算法显着减少了这些偏差。图3.瞳孔边缘精度,召回率和F1分数分布在训练之前(顶部)和之后(底部),使用我们的基本配置,参数设置如第3.5节所述。训练导致了显着提高的召回率和更多的控制精度(尽管平均精度略有下降),因此产生的F1分数平均略高,分布更紧密6345图4.学习对网络中卷积滤波器的修改,如[30]的精神所示。大多数都是非常平滑的函数,这意味着这些改变正在利用图像中有意义的模式。有趣的是,“水平梯度”扰动(在特征提取组的左上角显示)在滤波器的顶部呈现出与滤波器的中部和底部不同的特征;可以推测,这与在上瞳孔边界附近具有低垂睫毛的一些图像有关。同样有趣的是,与其他滤波器相比,最深的两个滤波器这两个过滤器负责从特征图中最终“减去”杂波图,网络学习以实现这些改进。该网络包含总共16个二维卷积滤波器(其中一些包括在多通道输入上操作的单个滤波器的多个通道)-2个在第一卷积层中,12个在第二卷积层中,2个在第三卷积层中。其中10个被专门初始化为CNN内经典边缘检测和过滤操作的一部分,而其他的则被清零(在训练之前初始化为非常小的随机数,但对于所有“预训练”性能评估设置为零)。训练后滤波器和训练前滤波器之间的差异对于16个滤波器中的11个滤波器采取非常平滑的函数的形式,这意味着训练后的改进结果确实源于图像中的有意义的模式。图4显示了学习的过滤器更改。4.3. 超参数变分我们用不同的超参数进行了额外的实验一个这样的变化是将反向传播RANSAC容差设置为2个像素(而不是1)。在这种变化下的结果与原始结果非常相似,最终的网络比之前的情况更敏感(平均精确度,召回率和F1得分为0。二十四岁测量中心半径初始1 .一、20±0。690的情况。57 ±0。48培训后1 .一、06±0. 570的情况。47 ±0。36差异0的情况。15 ±0。450的情况。10 ±0。42表1.根据第3.5节所述设置参数的基础配置的准确度结果。CNN在任何训练之前都被初始化为相当好的性能,并且通过对我们的RANSAC损失函数进行训练来提高这种性能。结果是在1577张图像的测试集上计算的,训练后的CNN在1051张不同的图像上训练。有关挑战性图像的一些具体示例,请参见图5。测量精度召回F1分数初始0的情况。40 ±0。170的情况。69 ±0。180的情况。46 ±0。12培训后0的情况。32 ±0。050的情况。94 ±0。070的情况。48 ±0。06表2.根据第3.5节所述设置参数,对我们的基本配置进行边缘图评估在RANSAC损失函数上的训练导致瞳孔边缘的召回率大大提高,平均精度略有下降,从而导致更好的平均F1分数。同样重要的是,训练后这些指标中的每一个的价差都有所减少。6346图5.数据集中具有挑战性的图像的图示。最上面一行显示了训练网络产生明显错误的唯一图像的结果和相应的边缘图(绿色圆圈是网络输出,红色圆圈是地面实况)。底部行类似地显示了网络在训练之前所犯的错误,这些错误在训练之后不再发生。0的情况。98,0。38),精度仅略有下降(中心和半径误差1. 07± 0. 57比0 50± 0。38)。我们还尝试降低RANSAC冒名顶替者阈值,几何参数误差平方和的项大于阈值,从80到15,并且获得的结果实际上与原始结果相同(中心和半径误差为1。05± 0. 57比0 47± 0。36;平均精确度,召回率和F1评分为0。34,0。94,0。50)。我们尝试的第三种变化是设置β=0,这样导致反向传播的唯一假阳性是那些属于被发现的骗子这导致了一个更敏感的网络(平均精度,召回率和F1得分为0。028,0. 997,0。055),其精度仍然优于初始网,但显然不如我们的其他结果(中心和半径误差1. 14±0。67和0。51±0。46)。4.4. 替代配置我们运行了一个实验,去除了所有与杂波去除相关的预初始化。训练后的网络在最终边缘图评估方面仍然达到了非常接近于基础模型的性能(平均精确度、召回率和F1得分为0。30,0。95,0。46),然而,在寻 找 瞳 孔 方 面 , 存 在 一 个 灾 难 性 的 失 败 , 其 中RANSAC识别出穿过眼睑边缘和LED边缘的组合的圆,该圆未被成功过滤掉(换句话说,网络未能抑制的欺骗性冒名顶替者 不包括在这种情况下,中心和半径误差为1。08±0. 65和0的情况。51±0。四十五我们重复了这个实验,在网的前面增加了额外的层,试图重新-从图像中移动LED反射,并将结果传递到网络的其余部分。经过训练,这种配置实际上产生了我们所有实验中最好的边缘图指标,平均精度,召回率和F1得分为0。44,0。98,0。60(各自的标准偏差为0。07,0。04和0。07),尽管在相对于基本配置的精度度量方面没有看到改进(中心和半径误差1. 06± 0.57比0 54± 0。第42段)。但是,需要指出的是,不如基本配置预训练好(中心和半径误差1. 26± 0。70比0 69± 0。56)。因此,通过训练获得的改善量实际上比基本精度(中心和半径误差的差异为0. 2 ±0。46乙腈-0.15 ±0。第35段)。4.5. 减少训练样本在我们的实验中观察到完全没有过度拟合的鼓励下,我们探索了利用减少的训练大小。训练集减少了一半-因此,仅使用了525张图像。我们将每个学习率下的epoch数量加倍,以便每个学习率的参数更新总量保持固定。使用用于所有其他实验的相同测试集,准确度结果与基本配置相比几乎没有变化中心和半径误差1. 06±0. 57比0 48 ±0。37),最终的边缘图稍微不太敏感(平均而言,年龄精确度、召回率和F1得分为0。34,0。94,0。50)。5. 结论在这项工作中,我们成功地将针对实际问题的高性能RANSAC分割算法手工嵌入CNN中,并通过使用反向传播对构建的CNN进行微调来实现更好的性能。微调利用基于RANSAC可检测到的最强“冒名顶替者”集合的新型损失我们的工作加强了CNN作为适用于各种问题类型和大小的强大问题解决方法的案例。我们相信,我们的CNN封装和微调方法与我们的RANSAC损失函数具有普遍的应用程序,任何计算机视觉问题,RANSAC已被证明是一个成功的方法,我们期待着在未来的实验研究。确认这项工作得到了美国国家科学基金会(NationalScience Foundation ) 的 部 分 支 持 , 资 助 号 为 IIS-121294。引用[1] D. A.车尼亚克基于虹膜的波前旋转图像配准方法。IEEE Transactions on Biomedical Engineering , 52(12):2032[2] J. 道格曼虹膜识别是如何工作的IEEE Transactions onCircuits and Systems for Video Technology,14(1):216347[3] J·道格曼虹膜识别的新方法。IEEE系统、人与控制论学报,B部分:Cyber-netics,37(5):1167 -1175,2007.[4] C.东角,澳-地C. Loy,K.他,还有X。唐 学习用于图像超分辨率的深度卷积网络。欧洲计算机视觉会议,第184-199页。Springer,2014.[5] M. A. Fischler和R. C.波尔斯随机样本一致性:模型拟合的范例,应用于图像分析和自动制图。Communicationsof the ACM,24(6):381[6] W. Fuhl,T.桑蒂尼湾Kasneci,和E.卡斯内奇学生网:用于鲁 棒瞳孔检测的 卷积神经网 络。arXiv预印本arXiv:1601.04902,2016.[7] A. Gangwar,A.乔希,A.Singh,F.阿隆索-费尔南德斯,J. Bigun Irisseg:一个快速和鲁棒的虹膜分割框架,用于非理想虹膜图像。在生物识别(ICB),2016年国际会议上,第1-8页。IEEE,2016.[8] R.格希克,J。多纳休,T. Darrell和J.马利克丰富的特征层次结构,用于准确的对象检测和语义分割。在IEEE计算机视觉和模式识别会议论文集,第580-587页[9] H. Hofbauer,F. Alonso-Fernandez,P. Wild,J. Bigun,A.呃虹膜分割的基础事实。在2014年8月24日至28日在瑞典 斯德 哥尔 摩举 行的 第22 届国 际模 式识 别会 议(ICPR)上,第527-532页。IEEE计算机学会,2014年。[10] C. L. L.杰里和M。艾森曼卷积神经网络用于远程注视估计系统中的眼睛检测。在工程师和计算机科学家的国际会议论文集,第1卷。Citeseer,2008年。[11] S. K. 金,H.-J. 孔智贤M. 徐湾J. 周,K.H. Park,J.M.Hwang,D.M. Kim,H.Chung和H.C. Kim. 应用warping和ransac分割视神经乳头。在2007年第29届IEEE医学和生物学工程学会国际年会上,第900-903页。IEEE,2007年。[12] A.克里热夫斯基岛Sutskever和G. E.辛顿Imagenet分类与深度卷积神经网络。在神经信息处理系统的进展,第1097[13] Y.莱昆湾博泽,J. S. Denker、D.亨德森河E. Howard,W. Hubbard和L. D.杰克反向传播应用于手写邮政编码识别。神经计算,1(4):541[14] D. Li,D. Winfield和D.帕克赫斯特。Starburst:一种结合基于特征和基于模型的方法的基于视频的眼动跟踪混合算法。2005年IEEE,2005年。[15] J.朗,E. Shelhamer和T.达雷尔。用于语义分段的全卷积网络 。在 IEEE计算 机视 觉和模 式识 别会议 论文 集(Proceedings of the IEEEConference on Computer Visionand PatternRecognition),第3431-3440页[16] D. Morley和H.呼屈光性白内障手术中眼球扭转的计算。IEEE Transactions on Biomedical Engineering,63(10):2155[17] C. Papalazarou,P. M. Rongen和P. H. de With.多模型估计用于医学x射线图像中曲线段的检测。在模式识别(ICPR),2010年第20届国际会议上,第2484-2487页。IEEE,2010。[18] H. Proen clapa和L. A. 艾尔·桑德尔。虹膜识别:分析与分割阶段的准确性有关的错误率。图像和视觉计算,28(1):202[19] R.拉古兰岛Chum,M. Pollefeys,J. Matas和J. - M.弗拉姆 Usac : 一 个 随 机 样 本 一 致 性 的 通 用 框 架 IEEETransactionsonPatternAnalysisandMachineIntelligence,35(8):2022[20] R. Rocha、A. Campilho,J.席尔瓦,E. Azevedo和R.圣托斯。基于ransac和三次样条的颈动脉超声图像分割。生物医学中的计算机方法和程序,101(1):94[21] A. Sharif Razavian,H.阿兹普尔J. Sullivan和S.卡尔-儿子。Cnn的特色现成的:一个令人震惊的认可基线在IEEE计算机视觉和模式识别研讨会会议论文集,第806[22] W. Shen,X. Wang,Y. Wang,X. Bai和Z.张某深轮廓:通过正共享损失学习的深度卷积特征,用于轮廓检测。在IEEE计算机视觉和模式识别会议论文集,第3982-3991页[23] K. Sirinukunwattana、S. E. A. Raza,Y. W. Tsang,黑腹叶蝉D. R.斯内德岛A. Cree和N.M. 拉杰普特局部敏感深度学习用于常规结肠癌组织学图像中的核检测和分类。IEEE医学成像学报,35(5):1196[24] K. Tanaka和E.近藤大规模动态环境中在线重定位的增量式 ransac 。 2006 年 IEEE 机 器 人 与 自 动 化 国 际 会 议(ICRA),第68-75页。IEEE,2006年。[25] A. Vedaldi和K.伦克Matconvnet:卷积神经网络。第23届ACM国际多媒体会议,第689-692页。ACM,2015.[26] M. 韦恩 C. 罗莎 R. 斯洛博达, N. 乌斯马尼和M.塔瓦科利使用ransac从2d超声图像对组织中的弯针进行3d形状可视化。2015年IEEE机器人与自动化国际会议(ICRA),第4723-4728页。IEEE,2015年。[27] R. P·王尔德 虹膜识别 :一种新 兴的生物 识别技术Proceedings of the IEEE,85(9):1348[28] S. Xie和Z.涂。整体嵌套边缘检测。在IEEE计算机视觉国际会议的Proceedings,第1395-1403页[29] S.- W.杨角C. Wang和C.- H.昌Ransac匹配:同步配准和分割。在机器人与自动化(ICRA),2010年IEEE国际会议上,第1905-1912页。IEEE,2010。[30] M. D. Zeiler和R.费格斯。可视化和理解卷积网络。在欧洲计算机视觉会议上,第818-833页。Springer,2014.[31] Y. Zhang,K.索恩河,巴西-地维勒加斯湾Pan和H.李你使用深度卷积网络改进对象检测6348通过最优化和结构化预测。在IEEE计算机视觉和模式识别会议的Proceedings,第249-258页
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
- SPC统计方法基础知识.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功