没有合适的资源?快使用搜索试试~ 我知道了~
智能系统与应用16(2022)200140使用EfficientNet的三阶段训练检测青光眼I. deZar za`a,b,c,J. deCurt o`*,a,b,c,CarlosT. 卡拉法特ca香港沙田香港科学园智能多维数据分析中心b计算机科学、多媒体和电信研究,加泰罗尼亚上大学,巴塞罗那c计算机工程系,Polit`ecnicadeVal`,Val`A R T I C L EI N FO关键词:青光眼眼底图像EfficientNetA B S T R A C T本文提出了一种方法,该方法基于先前在Imagenet上训练的最先进的网络架构的三阶段训练,并在三个步骤中迭代微调;首先冻结所有层,然后重新训练特定数量的层,最后从头开始训练所有架构,以实现具有高准确性和可靠性的系统。为了确定我们的技术的性能,使用了由眼底图像的17.070个彩色裁剪样本组成的数据集,并且该数据集包括两个类别,正常和异常。除了使用EfficientNet和EfficientNetV2的变体对所提出的管道进行彻底的实验外,还使用基线模型(VGG16,InceptionV3和Resnet50)进行了深入的评估。训练过程被准确地描述,重点是训练的参数的数量,混淆矩阵(假阳性和假阴性的分析),准确性和F1分数在每个阶段的提出的方法。所取得的结果表明,为手头的任务提出的智能系统是可靠的,提出了高精度,其预测是一致的,需要训练的参数的数量相比,其他替代品是低的。1. 介绍近年来,基于数据驱动技术的智能系统已经被提出来以前所未有的成功水平解决各种各样的任务。在医疗数据的情况下,使用依赖于计算机视觉和神经网络的方法的应用已被证明是非常有效的;(Behrad和SanieeAbadeh , 2022;de Curt o` 等 人 , 2022; Litjens 等 人 , 2017;Ronneberger等人,2015),显示出与人类评估相似甚至更好的性能水平。在这篇文章中,我们提出了一个三阶段的训练机制,以设计一个可靠的系统来检测和评估青光眼;(Diaz-Pinto等人,2019 a; 2019 b),这是一种不可逆的神经生成性眼病,根据世界卫生组织(WHO)的数据,全球有超过6500万人受到影响。早期发现和治疗对于防止视力丧失至关重要。所介绍的系统在所考虑的应用上实现了最先进的性能,并且该方法足够通用,可以用于其他临床病例或广泛的视觉应用,其中从原始像素强度中学习高度描述性的特征至关重要。设计原则考虑到性能,可靠性、统计显著性、平台感知延迟和完成任务所需的FLOPS;最终目标是提出一个可以与临床设备(例如视网膜造影仪)无缝集成的专家系统,用于早期诊断和治疗。我们的网络使用EfficientNet-B 0(标准差为3.7)和EfficientNet-B4(标准差为2.0)实现了96.6的平均F1分数百分比,其中给定折叠的最佳F1在B 0上为99,在B4上为98。对于EfficientNetV 2的情况,V2- B3实现了95.7(标准差为2.3)的折叠平均F1分数和95.4(标准差为1.6)的V2-S,其中对于V2-B3和V2-S,给定折叠的最佳F1均为98。这些结果显著优于基线; VGG 16(83.2)、Incep-tionV 3(91.1)和ResNet 50(88.9),并且也明显优于文献中发现的最新报道结果(Diaz-Pinto等人,2019年b)。整个手稿中使用的代码和数据是公开在Code Ocean 1的可重复性徽章倡议下。在可运行的胶囊环境中可以找到一个详细的笔记本,说明方法的所有阶段以及使用的数据集。本文的其余部分组织如下:* 通讯作者。电子邮件地址:dezarza@uoc.edu(I. deZar za`),decurto@uoc.edu(J. deCurt o`),calafate@disca.upv.es(C.T. Calafate)。1 可再生胶囊的永久链接:https://doi.org/10.24433/CO.8342269.v1https://doi.org/10.1016/j.iswa.2022.200140接收日期:2022年8月5日;接收日期:2022年9月20日;接受日期:2022年10月6日2022年10月12日在线提供2667-3053/© 2022作者。出版社:Elsevier Ltd这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)。可在ScienceDirect上获得目录列表智能系统及其应用杂志主页:www.journals.elsevier.com/intelligent-systems-with-applicationsI. de Zarz a`etal.智能系统与应用16(2022)2001402++Fig. 1. 阴性(正常)和阳性(异常)样本的示例。突出的内部圆形区域对应于视杯,外部圆形区域对应于视盘。相对于正常样本(左),昏迷样本(右;具有严重病理学)的视杯尺寸异常。[来源:来自研究数据集的两个随机样本第一节我们提出了一个概述和最新技术水平;然后提供了数据和方法的详尽描述,以及可视化,初步研究,评估和选择最佳模型与彻底的实验。最后,对本文的结论和进一步的工作进行了讨论。2. 概述和最新技术水平介绍了几种解决视网膜成像问题的方法,显示了基于手工制作的特征的传统技术和基于CNN的方法。对每一个问题的简要讨论程序以及实验中使用的数据类型。我们通过提及我们工作中使用的最先进的技术来扩展分析,与以前的出版物不同,这些技术仔细考虑了参数的准确性和数量。在Chakravarty和Sivaswamy(2016)中,他们提出了一种基于词袋的半监督学习框架,用于青光眼的早期检测。在Geetha Ramani等人(2012)中,他们通过使用随机树分类来评估病理学,尽管仅在45个样本的数据集上报告了实验。Xiong等人(2014)详细介绍了PCA和BAYES分类器的使用。Mitra et al.(2018)提出使用CNN来预测边界框及其相应的类概率和置信度得分,其中初始化使用k均值聚类完成。Wang et al.(2019)超越了这种方法,并将病理感知特征可视化方法应用于诊断,其中该方法严重依赖于生成对抗网络(GAN)。Guo等人(2020)使用UNetZhou等人(2018)在多个视野下使用特征提取来分割视盘和视杯,然后使用梯度提升决策树来进行青光眼的筛查。传统方法也已显示出有效地解决相关的医学成像问题(Huang等人,2021; Yang等人,2020年a; 2020年b)。对于几种方法的细致分析,请参见Barros等人(2020),其中描述了基于深度卷积网络的手工制作方法和技术(Maqsood 等 人, 2021; Rajinikanth 等 人, 2021; Wong 等 人,2012年),提出。然而,尽管大多数方法都提供了一个经过深思熟虑的有效方法来解决这个问题,使用的数据不足,因为在非常小的数据集具有有限的统计学意义。图2. 病理性青光眼样本的视觉探查;第一行:阳性,第二行:阴性。表1数据集的统计数据由17.070个眼底图像组成,具有阳性(P:异常)和阴性(N:正常)样本。将数据分配到10倍(0到9)的1.707个样本中,每个样本具有相应的训练、验证和测试。倍0123456789总列车(N)7547407397437467587546427487337452(P)6256396406366336216257376316466338验证(N)83888385817184828082819(P)71667169738370727472721试验(N)8291979192908110091104919(P)92837783828493748370821总170717071707170717071707170717071707170717070图三. 使用条形图对训练、验证和测试集进行数据集统计。I. de Zarz a`etal.智能系统与应用16(2022)2001403输入分辨率为10H,10W,10V,输出通道为C。Cc ĉ̂̂̂见图4。可视化描述了所提出的三阶段训练系统中的一组数据。ImageNet的迁移学习已经到位。颜色层被重新训练。特别是,来自m1的权重用于在训练m2时初始化网络,这将从完整模型中解冻给定数量的层(在我们的应用程序20中,保持层BatchNorm未经训练)。然后,在训练m3时使用来自m2的权重来初始化网络,这重新训练了整个体系结构。最后,在评估阶段,将获得的权重(Model*)送入10折交叉验证,以重新训练每个折的网络,并根据F1得分选择最佳模型。该过程对超参数选择是鲁棒的。表2EfficientNet-B 0,基线网络。 每一行描述了一个级c,它具有n-c层,载物台操作员分辨率#通道#层C表5三阶段训练系统,适用于EfficientNet的几种变体准确度为0倍。F- 2000Hc×WcCcLc1Convn3X 3224×224 32 12MBConvn1,k3X33MBConvn6,k3X34MBConvn6,k5X55MBConvn6,k3X36MBConvn6,k5X57MBConvn6,k5X58MBConvn6,k3X3112×112 16 1112× 112 24 256× 56 40 228× 28 80 314× 14 112 314× 14 192 47× 7 320 19Convn1X 1合并FC 7&&×7 1280 1表3EfficientNetV 2-S , 示 例 架 构 。 使 用 MB 和 融 合 MB 卷 积 的 E x 张 力 到EfficientNet。每一行描述具有L_c层的级c,具有给定的步幅和输出通道C_c。舞台操作员大步#通道#层CFC0Convn3X 3CcLc2 24 11融合-MBConvn 1,k3X32融合-MBConvn 4,k3X31 24 22 48 43个融合MBConvn4,k3X 326444 MBConvn4,k3X 3,SE0.25212865 MBConvn6,k3X 3,SE0.25116096 MBConvn6,k3X 3,SE0.252256157 Convn1X 1 Pooling FC&&-12801表4针对多个模型基线的三阶段培训系统准确度为0倍。I. de Zarz a`etal.智能系统与应用16(2022)2001404所提出的架构建立在Tan和Le(2019)的EfficientNet和Tan和Le(2021)的EfficientNetV 2上,使用三阶段训练机制,扩展了Diaz-Pinto等人(2019 b)提出的微调步骤。这些架构是使用神经架构搜索(NAS)构建的(Pham等人,2018; Zoph和Le,2017;Zoph等人,2018),特别是EfficientNet使用了Tan等人(2019)提出的AutoML MNAS框架,该框架优化了网络的准确性和效率(FLOPS),并基于Sandler等人以前的工作。(2018)和Tan etal. (2019年),但有一个更大的基础模型。在EfficientNet的情况下,从B0到B5对模型系列进行评估,在EfficientNetV2中,从B0到B3、S和M进行评估。我们将ImageNet中的迁移学习应用于所研究的特定应用程序,并发现与其他最先进的方法相比,模型实现了高精度,减少了训练参数的数量。 视网膜图像分类中的伴随方法显示了EfficientNet模型家族对于给定任务的充分性(Gupta等 人 , 2022 a; 2022 b; Islam 等 人 , 2022; Jaiswal 等 人 ,2021;Nawaz等人,2022; Wang等人, 2020年)。I. de Zarz a`etal.表6智能系统与应用16(2022)200140表84三阶段培训系统的几个变种的EfficientNetV2。准确度为0倍。表7三级培训体系。混淆矩阵X基线模型(0倍)。VGG16、InceptionV3和ResNet50。3. 数据和方法所考虑的数据集由17.070个眼底图像组成,这些眼底图像是眼睛后部的数字化照片,具有病理学的阳性(异常)和阴性(正常)样本。数据被分成10倍的1.707个实例,每个实例都有相应的训练,验证和测试集。这些集合相对平衡,以减少假阴性的数量。这些样本是使用视网膜照相术获得的,因此它们在照明和强度方面的特性在所有情况下都是非常特殊和相对均匀的;这方面对于样本的正确检测至关重要。出于这个原因,使用未归一化的原始像素赋予网络比使用最小-最大归一化或标准偏差归一化时更好的泛化能力,因为这些类型的预处理会导致信息丢失。这种观察是非常重要的任何类型的非线性三级培训体系。混淆矩阵XEfficientNet在折叠0中。表9三级培训体系。 混淆矩阵XEfficientNetV2在折叠0中。影响或改变样本亮度的变换可能严重降低这种系统的性能;这在处理图像强度至关重要的其他医学数据时也可能成立。I. de Zarz a`etal.智能系统与应用16(2022)2001405表10针对多个基线模型的三阶段训练系统。F1-分数,第0倍中可训练参数的数量和不可训练参数的数量方法级别m1 m2 m3表12三阶段培训系统的几个变种的EfficientNetV2。F1-分数,第0倍中可训练参数的数量和不可训练参数的数量。方法级别型号VGG 16 F1-评分(%)#可训练参数#不可训练参数InceptionV3 F1评分(%)#可训练参数#不可训练参数ResNet50 F1评分(%)#可训练参数#不可训练参数表1184 88 762.050 14.678.01814.715.71278 82 878.194 401.41021.413.664 38.52880 83 8923.542.78618.081.664 57.216(%)#可训练参数#不可训练参数B1 F1-评分(%)#可训练参数#不可训练参数B2 F1-评分(%)#可训练参数#不可训练参数B3 F1-评分(%)#可训练5.122 594.2266.344.580 73.63285 85 865.122 594.2266.344.580 73.63282 83 858.692.7208.077.418 85.10480 85 8312.827.552三阶段训练系统,适用于EfficientNet的几种变体。F1-分数、可训练参数的数量和折叠0中不可训练参数的数量方法级别parameters#不可训练的参数12.078.948 112.288#可训练参数#不可训练参数参数1.126.706 4.012.6702.930.547 44.583parameters#不可训练的参数MB1 F1-分数(%)81 85 92F1得分#可训练参数#不可训练参数B2F1评分(%)#可训练参数#非5.1221.355.6023.1. 眼底图像(%)#可训练参数#不可训练参数可训练参数B3 F1-分数(%)81 84 87对样本进行裁剪以提高检测器的灵敏度。这种疾病的特征是视杯的大小异常,#可训练parameters#不可训练的参数10.702.3788.846.543 90.375关于视盘,见图1。这就是为什么许多早期的方法是基于杯/盘比(CDR)的原因。由于我们的方法是数据驱动的,因此不需要使用手工制作的中间特征作为特征选择。数据的随机子集如图所示。 2以及B4 F1-分数(%)80 81 91详细统计见表1和图2。 3.#可训练参数#不可训练参数17.555.78615.041.263 128.7913.2. 初步研究和方法初步研究以Fold 0为例,提出了一种设计方法。B5 F1-分数(%)80 86 89这将作为手稿的指导原则#可训练参数#不可训练参数28.348.97825.078.903 176.839研究中的方法提出了一个三阶段训练系统(见图4的视觉描述),该系统仅在一个Fold数据中包含以下过程:1. 从在Imagenet上训练的模型开始,只重新训练系统的最后添加的层( GlobalAveragePooling2D , BatchNorm , Dropout 和 FullyConnected)。M1M2M3高效NetV2B0F1得分858588M1M2M3SF1得分858788EfficientNetB0F1-评分(%)798388(%)#可训练5.122938.05020.182.61020.333.92019.400.992156.4328282915.1223.050.62652.863.47853.152.94850.107.444294.5926.577.7995.227.31964.6158185925.6341.637.5947.706.6287.771.3856.139.42570.391I. de Zarz a`etal.智能系统与应用16(2022)2001406图五. 评估的直观描述。在初始阶段使用Fold 0(Model*:从m3获得)获得的权重然后用于10倍交叉验证,以重新训练每个折叠的网络,并根据F1得分选择模型(Model **)的最佳权重表13F1评分的评价:由VGG16、InceptionV3和ResNet50组成的方法的基线模型。对所有评估模型的F1评分进行跨折叠的全面测试,包括平均值和标准差倍统计0123456789是说stdev基线模型VGG168388898395936090866583,21,1InceptionV39194869293909194899291,12,4ResNet508888828792859288919388,93,3表14F1评分(%)的评价:基于EfficientNet的方法。对所有评估模型的F1评分进行跨折叠的全面测试,包括平均值和标准差。倍统计0123456789是说stdevEfficientNetB09999978697959898988796,63,7B19299989498989798949395,92,4B289100969792989797989696,12,9B38999989498929598969695,53,0B49798979898989697989196,62,0B59198979494969798949995,82,3表15F1评分(%)的评价:基于EfficientNetV2的方法对所有评估模型的F1评分进行跨折叠的全面测试,包括平均值和标准差倍统计0123456789是说stdev高效NetV2B08695969795939496939794,33,3B18895929696939696959594,22,5B29499919594959598958794,53,1B39598969696969798958995,72,3S9397959795979798939395,41,6M8897928992949198939192,43,02. 使用上一阶段的权重初始化一个模型,该模型将解冻前一模型的多个层(不包括BatchNorm),并重新训练系统。3. 使用上一次迭代的权重,重新训练整个网络。根据F1分数和混淆矩阵评估分类报告,以选择最佳超参数。EX实验基于基线模型(Simonyan和Zisserman(2015)中的VGG16,Szegedy等人(2016)中的InceptionV 3和He等人(2016)中的ResNet 50),然后扩展到EfficientNet的变体;Tan和Le(2019),以及EfficientNetV 2;Tan和Le(2021)。EfficientNet-B 0基础模型由以下层组成,见表2。在这个特定的例子中,模型m1冻结了所有层,阶段1到8,并且仅重新训练对应于阶段9的层。模型m2从m1上学习的权重开始,并向后重新训练一个层的子集最后,模型m3从m2的权重开始,重新训练整个网络。网络以与EfficientNetV2变体(架构描述见表3)和模型基线(VGG16、InceptionV3和ResNet50)相同的方式进行模型族EfficientNet和EfficientNetV2是模块MB和融合MB卷积(表示为MBConvn和融合MBConvn)的组合堆栈。这些模块由以下内部运算符组成:I. de Zarz a`etal.智能系统与应用16(2022)2001407ו××表16对几个模型基线(VGG16、InceptionV3和ResNet50)进行评估。折叠精度(从0到9)。MBConvn:a 11卷积,然后是dependency 33卷积,一个SE模块在胡等人。(2018),最后一个1卷积。• Fused-MBConvn:一个3× 3卷积,然后是一个SE模块,最后是一个1× 1卷积。值得一提的是,EfficientNet-B 0实现了最先进的性能,同时将训练参数的数量限制在与ResNet 50相同的水平表4、5和6显示了给定的三阶段训练机制的验证和训练精度:m1对应于第一阶段,其中仅训练最后一层,m2对应于第二阶段,其中许多层被解冻,m3对应于第三阶段,其中整个网络被重新训练。相应模型的混淆矩阵如表7、8和9所示,其中我们可以看到,由于三阶段程序,性能明显提高,导致假阴性的数量大幅减少。虽然对于这个特定的任务,我们考虑F1分数作为比较度量,混淆矩阵允许计算其他度量,如错误率,准确性,特异性、灵敏度和精确度。F1评分的数值进展可参见表10、11和12,其中报告了研究中每个方法水平关于三阶段训练系统的混淆矩阵,我们可以观察到,在不正确情况下的预期行为是具有比假阴性更高数量的假阳性。这适用于设计检测青光眼的系统,因为原理是如果存在疾病,则总是能够检测到疾病,因为病理是不可逆的,并且早期治疗可以显著改善受试者的状况。该手稿使用F1分数(越高越好)来选择模型,该分数被计算为精确度和召回率之间的调和平均值。我们可以观察到三步训练赋予系统设计的性能提高,与所选择的超参数(学习率,epochs和优化器的数量)无关。此外,来自Imagenet的迁移学习允许我们分三个阶段快速微调架构,在有限的训练时间内实现高准确性。该系统使用Keras实现,具有以下超参数:• m1(lr= 1e- 2,dropout= 0.2,epochs= 50)• m2(lr= 1e- 4,epochs= 10)• m3(lr= 1e- 4,epochs= 30)其中一旦在Fold 0中获得了所需的模型,我们将进行跨折叠的彻底测试(10倍交叉验证),以选择在给定测试子集上提供更好准确性的权重,参见图5。特别地,我们评估平均值和标准差以确定结果的统计显著性。对于评估,我们执行10倍交叉验证,从m3加载权重,并在epochs=30的情况下对每个折叠进行重新训练3.3. 评价和讨论该手稿建立在VGG16,InceptionV3和ResNet50作为方法的基线模型上,然后建议使用EfficientNet的变体来实现最先进的性能。对每种模型进行了跨褶皱的深入评价。表13、14和15显示了数据集所有折叠的F1分数,该数据集使用m3的相应权重作为初始权重来评估所考虑的方法,即,对于每个给定模型,一个折叠中的三阶段训练的结果。突出显示最佳结果,通过计算沿褶皱的平均值和标准差表16、17和18中显示了每个折叠的训练集和验证集上每个模型的准确度图,以便可视化架构的泛化所提出的三阶段系统,包括EfficientNet和EfficientNetV 2的变体,大大优于给定的基线(VGG 16,InceptionV 3和ResNet 50),这些基线在范围上与Diaz-Pinto等人报告的模型相似。(2019 b),但使用了手稿中介绍的三阶段训练。在基线模型的情况下,与VGG 16(83.2)和ResNet 50(88.9)相比,InceptionV3显然具有最高的平均F1分数(91.1)。虽然InceptionV3和ResNet50在训练参数数量和总体准确度方面表现出了比较好的性能,但考虑到我们正在处理数千个数据集,第一个更有效。如果要训练的数据增加,预计ResNet50会实现更好的性能,因为它能更好地处理通过层反向传播的梯度。I. de Zarz a`etal.智能系统与应用16(2022)200140表88评估EfficientNet的几个变体(B 0 -5)。折叠精度(从0到9)。EfficientNet模型在F1分数方面的表现略好于EfficientNetV 2,尽管EfficientNetV 2的变体显示出更好的跨折叠的标准差;作为B2,模型在给定折叠上实现更高的准确性(折叠1中为100),B 0和B4是在折叠中达到最佳平均F1的两个公式(96.6),其中B4具有最低的标准差(2.0);因此,由于结果更一致,因此实现了更好的泛化。在EfficientNetV 2的情况下,V2-B2在给定折叠上实现了最高的准确性(折叠1中为99),而V2- B3是在折叠上获得最佳平均F1得分的模型(95.7),根据F1得分的标准偏差(1.6),模型S是更一致的模型。误差条的平均值和标准差见图10。第六章跨折叠的准确度图显示了相当好的能力,每个模型的泛化,显示训练集和验证集的相应曲线。在同一架构的多个列车阶段中解决问题的方法呈现出具有最先进性能 的 稳 健 行 为 。 该 技 术 的 局 限 性 主 要 是 由 于 EfficientNet 和EfficientNetV2,其中我们继承了训练大量参数的必要性,这显然少于其他最先进的CNN架构,因为网络使用NAS优化整体FLOPS,但与传统手工制作的方法相比仍然非常高,其中要学习的参数数量非常低。4. 结论和进一步的工作在这项工作中,智能系统,自动检测青光眼 给出该方法基于一个三阶段的训练过程,该过程基于EfficientNet的变体,EfficientNet是最近提出的一系列架构,使用NAS在Imagenet上实现了令人信服的准确性,实现了优于基线方法的一致结果。采用从Imagenet到所研究的给定应用程序的迁移学习。所应用的训练机制赋予系统对超参数选择的鲁棒性。我们使用由17.070个眼底图像组成的数据集,与其他最近的工作中使用的样本数量相比,这是相当大的尺寸,并且其中用于训练、验证和测试的集合是很好地平衡的;这样的事实赋予所获得的模型以低数量的假阴性,考虑到病理的严重性和不可逆性,这显然是期望的。在研究中描述的程序的每个阶段报告了详尽的评估,以及训练和验证集的结果的视觉解释。测试集中的F1分数被用作在模型之间进行选择的目标分数度量,以及初始阶段每个模型的分类报告和混淆矩阵。所提出的系统是可靠的、高度准确的、一致的和资源有效的。的 方法 实现 一 是说 平均 F1分数百分比使 用EfficientNet-B 0 ( 标准 差为3.7 ) 和EfficientNet-B4( 标准 差为2.0),在96.6的折叠上,其中给定折叠上的最佳F1在B 0上为99,在B4上为98的情况下I. de Zarz a`etal.智能系统与应用16(2022)2001409表18评估EfficientNetV 2的几个变体(B 0 -3、S和M)。折叠精度(从0到9)。见图6。使用 三阶 段训练 程序 对研究 中的 每个模 型进行 跨折 叠的 F1评估 。描 绘了 每个模 型的 具有平 均值和 标准 偏差的 误差 条。 所有基 于EfficientNet和EfficientNetV2的架构都优于基线方法(VGG16,InceptionV3和ResNet50),因为EfficientNet B4和EfficientNetV2是性能最好的技术。EfficientNetV 2、V2-B3在以下倍数范围内的平均F1得分95.7(标准差为2.3)和V2-S为95.4(标准差为1.6),其中给定折叠的最佳F1对于V2-B3均为98V2-S这些结果显著优于基线; VGG 16(83.2),InceptionV 3(91.1)和ResNet 50(88.9),也明显优于文献中报道的最新结果I. de Zarz a`etal.智能系统与应用16(2022)20014010++Diaz-Pinto等人(2019年b)。所提出的使用EfficientNet和EfficientNetV2的变体的三阶段训练机制虽然针对检测青光眼的病理的特定应用,但是实现了优越的分类基线以在其他临床状况中使用,或者在从原始像素强度提取特征可以发挥重要作用的任何视觉应用中的更一般情况下。实际上,视觉传感器在许多应用中是普遍存在的,例如自动驾驶汽车或无人驾驶飞行器,其中转移学习的使用以及随后的冻结、训练和微调已经被证明是非常有效的;因此,所提出的系统可以进一步集成到这种系统的检测流水线中,例如用于自动驾驶车辆中的车道检测,或者用于无人机中的目标识别。CRediT作者贡献声明I. de Zar za`:方法,验证,调查,可视化,软件. J. de Curt o`:Conceptualization,Visualization,Software,Writing- original draft.卡洛斯·T Calafate:写作&-评论编辑,监督。竞争利益作者声明,他们没有已知的竞争性经济利益或个人关系,可能会影响本文报告的工作致谢这项工作得到了香港创新科技署(InnoHK Project CIMDA)、香港研究 资 助 局 ( Project CityU 11204821 ) 和 香 港 城 市 大 学 ( Project9610034)的支持。我们感谢UniversitatPolit`ecnicadeVal`Vale的支持;研 发 项 目 PID2021-122580NB-I00 , 由 MCIN/AEI/10.13039/501100011033和ERDF资助引用Barros,D.,J.,弗莱雷角,Taleb,A.,瓦伦廷河,&Morais,P.(2020).机器学习应用于青光眼检测的视网膜图像处理:回顾与展望。生物医学工程在线,19。https://doi.org/10.1186/s12938-020-00767-2Behrad,F.,&Saniee Abadeh,M.(2022年)。多模态医学数据挖掘的深度学习方法概述。专家系统与应用,200,117006。https://doi.org/10.1016/j.eswa.2022.117006Chakravarty,A.,&Sivaswamy,J.(2016).融合分割和图像特征的青光眼分类。2016年IEEE第13届国际研讨会生物医学成像(ISBI)(pp. 689-692).10.1109/ISBI.2016.7493360deCurto`,J., 德萨尔茨岛,Yan,H.,卡拉&法特角T. (2022年)。的适用性Hadamard作为分类问题的输入调制器。软件影响,13,100325。https://doi.org/10.1016/j.simpa.2022.100325Diaz-Pinto,A.,Colomer,A.,纳兰霍,五,Morales,S.,徐,Y.,Frangi,A.F.(2019年a)。视网膜图像合成和半监督学习用于青光眼评估。IEEETransactions on MedicalImaging,38,2211-2218。https://doi.org/10.1109/TMI.2019.2903434Diaz-Pinto,A.,Morales,S.,纳兰霍,五,Kohler,T.,Mossi,J. M.,Navea,A.(2019年b)。使用眼底图像进行自动青光眼评估的CNN:广泛的验证。生物医学工程在线.Geetha Ramani,R.,巴拉苏布拉马尼安湖&Jacob,S. G.(2012年)。通过视网膜图像分析和数据挖掘技术自动预测糖尿病视网膜病变和青光眼。2012年机器视觉与图像处理国际会议(MVIP)(pp. 149-152)。https://doi.org/10.1109/MVIP.2012.6428782Guo,F.,Li,W.,Tang,J.,Zou,B.,&范,Z。(2020年)。基于图像分割和特征提取的青光眼自动筛查方法。医学和生物工程与计算机,58。https://doi.org/10.1007/s11517-020-02237-2古普塔岛K.,Choubey,A.,&Choubey,S.(2022年a)。 基于深度学习的视网膜眼底图像分类模型的Mayfly优化。计算机与电气工程,102,108176。https://doi.org/10.1016/j.compeleceng.2022.108176古普塔,N.,Garg,H.,&阿加瓦尔河(2022 b)。使用clahe和efficientnet进行青光眼检测的强大框架。 The Visual Computer,38,2315-2328.他,K.,张,X.,Ren,S.,Sun&,J. (2016年)。深度残差学习用于图像识别。CVPR。胡,J,Shen,L.,&Sun,G.(2018年)。挤压-激发网络。 CVPR。Huang,M.,Feng,C.,Li,W.,&Zhao,中国粘蝇D.(2021年)。多尺度空间-强度域融合自适应滤波血管增强。生物医学信号处理和控制,69,102799。Islam,M. T.,Mashfu,S. T.,Faisal,A.,Siam,S. C.,纳欣岛T.,&汗河(2022年)。基于深度学习的青光眼检测,使用裁剪的视杯和视盘以及血管细分IEEE Access,10,2828-2841。https://doi.org/10.1109/ACCESS.2021.3139160Jaiswal,A. K.,Tiwari,P.,Kumar,S.,Al-Rakhami,M.美国,Alrashoud,M.,&Ghoneim,A. (2021年)。基于深度学习的智能物联网健康系统,用于使用视网膜图像IEEE Access,9,70606-70615。https://doi.org/10.1109/ACCESS.2021.3078241利琴斯湾,Kooi,T.,贝诺尔迪湾E、Setio,A. A.一、乔皮,F.,加福里安,M.,.S'anchez,C. I. (2017年)。 深度学习在医学图像分析中的应用。 医学图像分析,42,60-88。Maqsood,S., Dam aBogsev iBogcius,R.,马&斯凯尔乌纳斯河(2021年)。基于出血检测3D CNN深度学习框架和特征融合用于评估糖尿病患者的视网膜异常。传感器(瑞士巴塞尔)。Mitra,A.,Banerjee,P.S.,Roy,S.,Roy,S.,&Setua,S. K.(2018年)。使用深度学习从视网膜眼底图像定位青光眼感兴趣区域分析生物医学中的计算机方法和程序,165,25-35。https://doi.org/10.1016/j.cmpb.2018.08.003Nawaz,M.,Nazir,T.,Javed,A.,塔里克,美国,Yong,H.-美国,汗,M。一、&Cha,J.(2022).一种有效的深度学习方法,用于使用视盘和视杯定位进行青光眼自动检测传感器,22。https://doi.org/10.3390/s22020434范,H.,Guan,M.,Zoph,B.,Le,Q.,&Dean,J.(2018).通过参数共享实现高效的神经结构搜索。 ICML。Rajinikanth,V.,Kadry,S., Dam aBogsev iBogcius,R.,Taniar,D.,Rauf&,H. T. (2021年)。机器-用于检测视网膜oct图像中脉络膜新生血管学习方案2021年第七届生物信号,图像和仪器国际会议(ICBSII)。1Ronneberger,O.,Fisc
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 平尾装配工作平台运输支撑系统设计与应用
- MAX-MIN Ant System:用MATLAB解决旅行商问题
- Flutter状态管理新秀:sealed_flutter_bloc包整合seal_unions
- Pong²开源游戏:双人对战图形化的经典竞技体验
- jQuery spriteAnimator插件:创建精灵动画的利器
- 广播媒体对象传输方法与设备的技术分析
- MATLAB HDF5数据提取工具:深层结构化数据处理
- 适用于arm64的Valgrind交叉编译包发布
- 基于canvas和Java后端的小程序“飞翔的小鸟”完整示例
- 全面升级STM32F7 Discovery LCD BSP驱动程序
- React Router v4 入门教程与示例代码解析
- 下载OpenCV各版本安装包,全面覆盖2.4至4.5
- 手写笔画分割技术的新突破:智能分割方法与装置
- 基于Koplowitz & Bruckstein算法的MATLAB周长估计方法
- Modbus4j-3.0.3版本免费下载指南
- PoqetPresenter:Sharp Zaurus上的开源OpenOffice演示查看器
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功