没有合适的资源?快使用搜索试试~ 我知道了~
⃝⃝可在www.sciencedirect.com在线ScienceDirectICT Express 4(2018)247www.elsevier.com/locate/icte乳腺癌组织学图像分类:从头开始训练还是迁移学习?拉杰什?梅赫拉?沙卢?印度昌迪加尔国家技术教师培训研究所电子通信系,接收日期:2018年10月1日;接受日期:2018年在线发售2018年11月3日摘要我们在组织病理学成像模式上与完全训练的网络进行了比较,证明了迁移学习的能力通过考虑三个预先训练的网络:VGG16,VGG19和ResNet50,并分析它们的行为,以进行与放大率无关的乳腺癌分类。同时,我们研究了训练测试数据大小对所考虑的网络性能的影响经过微调的预训练VGG 16与逻辑回归分类器在90%-10%的训练-测试数据分割下获得了92.60%的准确性,95.65%的ROC曲线下面积(AUC)和95.95%的准确性精度评分(APS)分层微调和不同的权重初始化方案可以是本研究的未来方面。c2018韩国通信与信息科学研究所(KICS)。Elsevier B.V.的出版服务。这是一个开放获取CC BY-NC-ND许可证下的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。关键词:乳腺癌;组织学图像;卷积神经网络;完全训练;迁移学习1. 介绍医学界的粉红色丝带是一个象征,让人们认识到乳腺癌。乳腺癌是女性高死亡率的主要原因之一[1]。BRCA1、BRCA 2(两个基因的名称)、肥胖、吸入避孕药、月经周期不规律、放射治疗和雌激素暴露过多是导致乳腺癌的一些高危因素[2这些因素负责诱导细胞突变,并导致细胞无法控制的生长。酸痛乳腺癌是乳腺癌的主要症状,如果早期诊断不出,会危及生命。nationalbreastccer. 或g/breast-pain]。皮肤刺激,发红,疼痛和肿胀是在初始阶段发生的一些其他症状,随着乳头的侵蚀或乳头突然流出水样物而变得不祥[3,4]。因此,早期发现是必不可少的铅*通讯作者。电子邮件地址:shallu. nitttrchd.ac.in(Shallu)。同行评审由韩国通信和信息科学研究所(KICS)负责https://doi.org/10.1016/j.icte.2018.10.007这是一种简单的治疗方法,也可以增加生存的机会[5]。用于筛查和监测乳腺癌的技术,包括乳腺X线摄影、磁共 振 成 像 ( MRI ) 、 超 声 、 正 电 子 发 射 断 层 扫 描(PET)、热成像和手术切口[4,6由于不同类型癌症的相似临床表现,对从这些技术获得的数据的解释非常复杂,这使得对数据的进一步分析非常困难。数据分析是一个耗时耗力的过程,但也是提供鉴别诊断的一个非常关键的步骤。因此,有必要将诊断工作流程中的一些任务自动化,以减轻放射科医生和病理学家的负担。在这种情况下,机器学习技术成为一种主导范式,它提供可靠的解决方案,并可以自动和智能地执行一些诊断任务[9]。在各种机器学习技术中,深度神经网络由于其自动特征提取和表示学习能力而引起了人们的极大兴趣[10计算能力的进步是另一个2405-9595/c2018韩国通信和信息科学研究所(KICS)。出版社:Elsevier B.V.这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。248Shallu和R.Mehra/ICT Express 4(2018)247因其受欢迎[13]。深度神经网络的一个常见变体,即,卷积神经网络(CNN)在计算机视觉中具有广泛的应用,并以其权重共享和局部连接特性而闻名[14这两个特性允许CNN像局部滤波器一样工作表示学习的能力使CNN能够连续地将低级特征组合成高级特征,直到获得图像的类别标签。然而,CNN的完整训练(从头开始训练)可能并不容易,因为CNN需要大量的训练数据才能获得更好的性能[18,19]。在CNN的训练中也需要高性能图形处理单元(GPU)以进行快速处理,因为使用如此大的数据集合进行训练是一个耗时的过程[18]。此外,CNN的训练过程非常复杂,由于收敛和过拟合问题,需要不断调整参数以确保所有层的等效学习[20]。迁移学习可能是从头开始培训的一个很好的替代品在迁移学习中,在一个任务上训练的网络被微调并应用于不同但相关的任务。迁移学习可以以两种方式应用,作为基线或特征生成器[21预先训练的网络中的参数在用作基线时根据所需的任务进行调整[21]。然而,从输入中提取特征,然后在用作特征生成器时用于训练新的分类器[22]。在此,在乳腺癌组织分类的组织病理学图像的背景下解决以下问题:完全训练或微调的预训练网络是否为了回答这个重要的问题,进行了以下实验:(a)从BreakHis数据集获得的与乳腺癌相关的组织病理学图像的不依赖放大率的 分 类 ( http : //www.b.gov.cn ) 。 在 法 国 , 乌 法 省BR/VRI/DATATABASES/BREAAST-CANCER/HISTOPATHOLIGICAL-DATATABASE-BREAKHIS/),以及(b)对于三种不同的训练-测试数据分裂的网络性能的研究对于每组实验,将预先训练的微调网络的性能与从头开始训练的网络进行比较。这项工作背后的动机是Tajbaksh等人的研究贡献,因为他们无法在组织病理学和磁共振成像模式上对预训练CNN的完全训练与微调进行比较分析[25]。因此,我们的动机是通过本文扩展他们的工作,为组织病理学成像模式本文的目的是分析与完全训练的网络相比,迁移学习在使用组织病理学成像和MR模态的乳腺癌分类应用中的能力,并确定哪种预训练的网络在此应用中表现更好据作者所2. 所用材料和方法在这项研究中,使用了三个公认的预训练深度CNN模型:VGG16,VGG19和ResNet50,全面培训和迁移学习。由于对乳腺癌组织学图像进行分类的任务VGG16、VGG19和ResNet50是非常受欢迎的预训练CNN模型,因为它们具有更深入的架构。此外,这些模型已经显示出相对较高的性能,具有挑战性的计算机视觉问题的多样性。例如,VGG 16和VGG 19在ImageNet大规模视觉识别挑战赛(ILSVRC-2014)中保持了定位的第一位置和分类的第此外,VGG 16和VGG 19在其他数据集上也表现出良好的泛化能力,如Caltech-101,Caltech-256,PASCAL VOC 2007和2012 [26,27]。同样,ResNet 50(残差网络)也是ILSVRC-2015的赢家,在分类任务中甚至超过了人类的表现。简单的训练是使用ResNet50模型的显著优势,因为它从图像中学习残差而不是一些特征[28]。在当前的研究中,整个上述列出的预训练网络通过考虑网络中最后一个完全连接层之前的所有激活而被用作特征生成器。此外,这些激活被用作特征向量以学习用于分类目的的新分类器。在这方面,逻辑回归(LR)被用作一个新的分类器,以作出最终的决定。因此,当前的方法与[25]在微调方面使用的方法不同,其中仅使用一个预训练的CNN模型AlexNet以逐层方式执行预训练的微调。然而,当前方法还考虑了训练测试数据大小对微调和完全训练网络性能的影响,2.1. 数据集通常,在医学领域,由于数据收集的复杂和昂贵的过程,数据集由有限的样本组成。因此,访问一个相关的和大规模的良好注释的数据集是非常具有挑战性的。一个注释良好的数据集为比较和验证目的模型提供了一个通用平台。因此,要开发一个健壮的模型,大规模的良好注释的数据集的可用性是最重要的要求。在这项工作中,使用了与巴西巴拉那的预后和诊断(PD)实验室合作建立的公开可用的BreakHis数据集[14,35]。该数据集包含从82名患者在四个不同的放大倍率下收集的总共7909个乳腺癌组织病理学图像样本。数据集中的样本分为两大组:良性和恶性,其中良性和恶性组分别由2480和5429个样本组成。数据集的一瞥在图中提供。1.一、2.2. 数据增强不平衡和有限的数据量是开发强大的计算机辅助诊断(CAD)系统的主要挑战。数据增强是在深度模型中使用的一种方法,用于扩大数据集,以缓解数据大小有限的问题一些流行的数据增强技术,如Shallu和R.Mehra/ICT Express 4(2018)247249Fig. 1. 来自BreakHis数据集的乳腺癌组织病理学图像,患者患有乳头状癌(恶性),具有四个放大倍数(a)40 x,(b)100 x,(c)200 x和(d)400 x。[10 ]第10段。翻转、裁剪、缩放、旋转、插值、平移和噪声插入已经在许多先前的研究中应用[15,29,30]。但是用于自然图像的所有增强方法都不能在医学图像上工作,因为许多医学图像是自上而下解决的问题,而不是像自然图像那样自下而上解决的问题。此外,与自然图像相比,强度在许多医学成像模态中起关键作用。因此,应根据数据集明智地选择由于组织病理学图像具有旋转和反射对称性[31],因此如果使用其他增强技术,则总是有可能从图像中消除某些固有属性,这可能会导致区别特征或信息的丢失。因此,对于完全训练和迁移学习,仅采用旋转作为数据增强技术。图像的旋转围绕其中心以三个角度进行:90度,180度和270度。使用增强过程的另一个优点在于最小化过拟合[32],这是成功实现机器学习模型的主要问题。2.3. 与放大率无关的分类放大系数在分析中起着至关重要的作用组织学图像。在放大中,物体的大小”[33]这是一种改变,以便可以舒适地看到物体。 组织学图像由各种组织组成,但在低放大倍数下,这些组织的分析变得复杂由于在不同放大率下获取图像引入了背景的多样性。因此,对于自动CAD系统来说,从具有不同放大率的图像中学习或提取不同的特征以进行鉴别诊断变得具有挑战性。使用相同放大率的图像可以减少背景变化,这是大多数先前研究的首选方法。他们对特定的放大水平进行了分类[34,35]。在以前的一些研究中,放大因子也被考虑,并采用不同的分类器用于特定的放大因子[36,37]。在实施这些方法时,需要结合放大系数的先验知识进行多个阶段的培训。此外,具有新放大系数的图像也会对网络性能造成很大限制,这是执行中的一个主要弱点放大依赖的方法。因此,有必要开发一种与放大率无关的自动诊断系统,该系统也具有对新放大率因子的适应性3. 结果讨论在这项研究中,我们已经证明了连贯的结果,乳腺癌分类的组织病理学成像模式的应用。平衡数据集用于全面训练和微调CNN。为了获得平衡的数据集,具有大量图像的类(恶性)被下采样为等于存在于另一类(良性)中的图像样本。所有的实验都是在同一台机器上进行的,配置为:Intel(R)Core(TM)i7-7500U @2.90 GHz,NVIDIA GeForce 940MX,Window 10,8 GB内存,使用Tensorflow和Keras库。为了评估微调预训练网络和完全训练网络的分类性能,整个数据集分为训练数据将数据拆分为训练为了确定训练-测试数据大小对网络性能的影响使用这三种分裂方式对微调和完全训练的网络进行了一组实验。每个实验的耗时约为1-2小时。这些实验的结果计算的精度,召回率和f1分数分别为每个类。然后,对于每个实验,计算两个类获得的结果的平均值,以便进行简单的比较。此外,使用受试者工作特征(ROC)分析和曲线下面积(AUC)来验证结果,研究了分类性能。与此相结合,平均精度分数(APS)也计算性能评估。在这项研究中,对于网络的完整训练,权重被随机初始化,以从头开始在BreakHis数据集上训练模型。权重的随机初始化仅利用预训练模型的架构,而不是在先前数据上训练的权重。然而,对于迁移学习,预训练网络的权重保持为它是基于预先训练的网络已经被训练得很好的假设。表1和表2总结了在BreakHis数据集上对VGG16、VGG19和ResNet50进行迁移学习和完全训练所获得的结果在将乳腺组织病理学图像分为两类的背景下研究的所有模型的性能:良性(B)和恶性(M)。根据表1,250Shallu和R.Mehra/ICT Express 4(2018)247表1使用微调的预训练网络(VGG16,VGG19和ResNet50)进行历史学图像分类的性能分析。分类器Training–Testing Data类类型精度召回F1分数精度AUCAPSB0.930.920.9390%-10%M0.930.930.93百分之九十二点六百分之九十五点六五百分之九十五点九五平均值/总计0.930.930.93B0.920.930.92VGG 16 + LR80%-20%M0.930.920.9292.20%百分之九十三点九五百分之九十三点八九平均值/总计0.920.920.92B0.920.920.9270%-30%M0.920.910.9291.73%百分之九十三点四九百分之九十三点二九平均值/总计0.920.920.92B0.880.930.9090%-10%M0.930.880.90百分之九十百分之九十一点八五91.27%平均值/总计0.900.900.90B0.890.900.89VGG 19 + LR80%-20%M0.900.890.90百分之八十九点五91.76%91.13%平均值/总计0.900.900.90B0.900.910.9170%-30%M0.900.900.9090.40%91.14%百分之九十点三八平均值/总计0.900.900.90B0.770.810.7990%-10%M0.810.780.8079.40%79.39%82.03%平均值/总计0.790.790.79B0.800.780.79ResNet50 + LR80%-20%M0.810.780.8078.90%79.23%80.56%平均值/总计0.790.790.79B0.780.810.7970%-30%M0.800.770.7878.73%79.12%79.09%平均值/总计0.790.790.79可 以 观 察 到 , 微 调 的 预 训 练 VGG16 网 络 显 著 优 于ResNet50,而VGG16和VGG19的性能相当。在迁移学习中,ResNet50在BreakHis数据集上提供了不令人满意的结果,并表明它们无法概括新问题,如表1所示。过拟合是其性能不足的唯一原因,这是由于网络容量过大而引起的。冻结网络中的更多层可以是减少网络有效容量和过拟合的解决方案[25]。由于篇幅限制,在这项工作中没有考虑到这种解决方案此外,在完全训练的网络的性能评估中,ResNet50表现出比VGG16和VGG19网络更好的性能。由表2可知,VGG 16和VGG 19均 网络偏向于一个特定类别。回忆的价值(也称为敏感性)可以被认为是这一说法的有力证据。在完全训练的VGG16和VGG19中,一个特定类的召回值非常高,而另一个类的召回值非常低,但ResNet50对这两个类同样敏感,这将支持它比VGG16和VGG19更好的工作。此外,为了研究模型的性能,由于数据集的大小与训练-测试数据的大小对CNN性能的影响。在这种情况下,ROC分析和AUC被用来比较所有网络的性能,如图1和图2所示。2比4在图2中,对于90%-10%的训练-测试数据分割,比较了预训练和完全训练网络的ROC曲线和AUC。发现预训练的VGG16(AUC-95.65%)和VGG 19(AUC-91.85%)显著优于完全训练的VGG 16(AUC- 75.00%)和VGG 19(AUC-65.40%),而预训练的ResNet 50(AUC-79.23%)优于完全训练的ResNet 50(AUC-82.88%),但具有较小的值。对于图1和图2所示的训练-测试数据的剩余分裂方式,观察到相同的趋势。3和4从表1和表2中可以看出,微调的VGG16、VGG19和ResNet50网络的性能下降相对于训练数据大小的减少是微不足道的。当训练数据占总数据集的90%时,所有三个网络都表现良好,但对于完整训练,情况有所不同VGG 19在80%-20%的训练-测试数据分割中表现良好然而,ResNet50和VGG16网络在整个拆分方式下的性能几乎相似。VGG 19与通常趋势的偏离是由于其分别在90%- 10%和70%-30%分裂期间对良性和恶性更敏感。总之,已经证明,迁移学习方法的使用在以下方面产生了值得注意的性能:到CNN,在组织病理学成像模式上进行全面训练,即使训练数据集大小有限。Shallu和R.Mehra/ICT Express 4(2018)247251表2使用完全训练的网络(VGG16,VGG19和ResNet50)进行历史学图像分类的性能分析。分类器Training–Testing Data类类型精度召回F1分数精度AUCAPSB0.630.640.6490%-10%M0.660.640.6564.40%75.00%76.79%平均值/总计0.640.640.64B0.630.630.63VGG 1680%-20%M0.630.640.6363.20%66.77%65.23%平均值/总计0.630.630.63B0.660.600.6370%-30%M0.620.680.65百分之六十三点九三75.18%73.23%平均值/总计0.640.640.64B0.500.870.6490%-10%M0.600.190.2951.80%60.40%59.88%平均值/总计0.550.520.46B0.570.760.65VGG 1980%-20%M0.650.430.5259.70%65.61%62.00%平均值/总计0.610.600.59B0.810.020.0470%-30%M0.500.990.6650.27%61.34%55.44%平均值/总计0.660.500.35B0.770.780.7990%-10%M0.800.780.7978.80%82.71%79.34%平均值/总计0.790.790.79B0.790.800.79ResNet5080%-20%M0.800.780.7979.30%82.88%79.67%平均值/总计0.790.790.79B0.700.820.8070%-30%M0.810.780.7979.93%84.35%80.76%平均值/总计0.800.800.80图二、 乳腺癌分类的ROC分析,其中90%-10%的训练和测试集分为(a)微调的预训练VGG16,(b)微调的预训练VGG19,(c)微调的预训练ResNet50,(d)完全训练VGG16,(e)完全训练VGG19,和(f)完全训练ResNet50。252Shallu和R.Mehra/ICT Express 4(2018)247图3.第三章。 乳腺癌分类的ROC分析,其中80%-20%的训练和测试集分为(a)微调的预训练VGG16,(b)微调的预训练VGG19,(c)微调的预训练ResNet50,(d)完全训练VGG16,(e)完全训练VGG19,和(f)完全训练ResNet50。图四、 乳腺癌分类的ROC分析,其中70%-30%的训练和测试集分为(a)微调的预训练VGG16,(b)微调的预训练VGG19,(c)微调的预训练ResNet50,(d)完全训练VGG16,(e)完全训练VGG19,和(f)完全训练ResNet50。4. 结论和今后的方向这项工作确定了从自然图像到组织病理学图像的知识转 移 的 可 能 性 , 通 过 采 用 三 个 预 先 训 练 的 网 络(VGG16,VGG19和ResNet50)进行微调和全面训练。对于迁移学习,这些预训练的网络已被用作特征生成器,并提取用于训练逻辑回归分类器的特征。这项工作的一些重要结论是:• 与完全训练的网络相比,具有逻辑回归分类器的微调预训练的VGG 16对于90-10的训练-测试数据分裂产生了最佳性能,具有92.60%的准确性,95.65%的ROC曲线下面积(AUC)和95.95%的准确性精度评分(APS)• 微调的预训练网络对训练数据的大小比完全训练的网络更鲁棒,因为Shallu和R.Mehra/ICT Express 4(2018)247253即使训练数据的大小减少,微调网络的性能也不会下降太多。在分类任务中偏向于一个特定的类会大大降低网络性能因此,网络应该对所有类都是无偏的或同样敏感的,以获得更好的性能。网络的容量也对网络性能具有显著影响,因为它分别在太大或太小时引起过拟合和欠拟合的问题。因此,网络的最佳容量在很大程度上取决于要处理的应用分层微调,增加大小的数据集,先进的数据增强技术(如条件生成对抗网络(GAN)和深度照片风格传输)以及网络完全训练中的不同权重初始化技术(如Xavier,He,MSRA,高斯分布)利益冲突作者声明他们在本文中没有利益冲突。引用[1] R.L. 西 格 尔 , K.D. Miller , S.A. Fedewa , D.J. Ahnen , R.G.Meester,A. Barzi,A. Jemal,结直肠癌统计,2017,CA Cancer J.Clin. 67(3)(2017)177-193。[2] D. 福 特 , D.F. 伊 斯 顿 , M.Stratton , S.Narod , D.Goldgar ,P.Devilee,D.T.毕晓普湾韦伯,G。作者声明:J. Sobol医学博士Teare , J. Struewing , A. 阿 拉 松 , S. Scherneck , J. Peto , T. R.Rebbeck,P. Tonin,S. 诺伊豪森河作者:J. Lynch,B.A.J. Ponder,S.A. Gayther , J.M. Birch , A. Lindblom ,D. Stoppa-Lyonnet ,Y.Bignon ,A. Borg, U. Hamann ,N. 作者 声明 : R. Maugard ,H.Vasen,S. 洛杉矶塞茨Cannon-Albright,A. Schofield,M. Zelada-Hedman,乳腺癌家族中BRCA 1和BRCA 2基因的遗传异质性和多态性分析,Am. J.哈姆。Genet. 62(1998)676-689。[3] M. Kallenberg,K. 彼得森,M。 A.Y.尼尔森 Ng,P. Diao,C. 伊格尔,C.M.瓦雄湾荷兰共和国Winkel,N. Karssemeijer,M. Lillholm,无监督深度学习应用于乳腺密度分割和乳房X线摄影风险评分,IEEETrans. Med. Imaging 35(5)(2016)1322-1331。[4] K. Ganesan,U.R. Acharya,C.K. Chua,L.C. Min,K.T. Abraham,K.H. Ng,使用乳房X线照片的计算机辅助乳腺癌检测:综述,IEEE Trans.Biomed。Eng.6(2012)77-98。[5] 早期检测:前方的漫长道路,自然评论-编辑。18(2018)401.[6] Y. Zheng , Breast cancer detection with Gabor features fromdigitalmammograms,Algorithms 3(1)(2010)44-62.[7] B.D. Fleet ,J. Yan,D.B. Knoester ,M. Yao,J.R. Deller ,E. D.Goodman,使用超宽带微波扫描重建图像的haralick特征进行乳腺癌检测,Transl。Res. Med. Imaging(2014)9-16.[8] M.坦湾Zheng,J.K. Leader,D. Gur,变更之间的关联乳腺摄影成像特征和近期乳腺癌发展风险,IEEE Trans. Med. Imaging 35(7)(2016)1719-1728。[9] D. Shen,G.吴,H- Il Suk,Deep learning in medical image analysis,Annu.生物医学版。Eng.19(2017)221-248.[10] Y. 莱昆湾,巴西-地本焦湾,澳-地Hinton,Deep learning,Nature521(7553)(2015)436-444.[11] R. Mehra Shallu,S. Kumar,深入了解用于医学图像分析的卷积神经 网 络 , 在 : IEEE 国 际 纳 米 技 术 会 议 仪 器 和 测 量 研 讨 会(NANOfIM),2017年,出版中。[12] E. Hoffer,N. Ailon,Deep metric learning using triplet network,in:International Workshop on Similarity-Based Pattern Recognition ,(2015)84-92.[13] A. Algelodimos,N. Doulamis,A. Doulamis,E. Protopapadakis,DeepLearning for Computer Vision:A Brief Review,Comput。英特尔神经学2018(2017)1-13.[14] F.A. Spanhol,P.R.卡瓦兰奥利维拉角珀蒂让湖Heutte,使用卷积神经网络进行乳腺癌组织病理学图像分类,在:神经网络国际联合会议,2016年,pp. 2560-2567[15] Z.汉湾Wei,Y. Zheng,Y.郑氏,中国科学院植物研究所所长。Yin , K. Li , S. Li , Breast cancermulti-classificationfrom tissuepathological images with structured deep learningmodel,Nature,Sci.Rep.(2017)1-10.[16] M.安蒂莫普洛斯,S。赫里斯托杜利季斯湖埃布纳,A. Christe,S.Mougiakakou,使用深度卷积神经网络对间质性肺病进行肺模式分类,IEEE Trans. Med. Imaging35(5)(2016)1207-1216。[17] M. 奥伯维尔角Knipfr,N.奥特角Jaremenko,E.Rod,J.登茨勒C.玻尔,H. Neumann,F. Stellzle,A. Maier,使用深度学习对口腔激光内窥镜图像中的癌组织进行自动分类,Nature,Sci。Rep.(2017)1-10.[18] 使用深度卷积神经网络进行间质性肺疾病的肺模式分类。35,(5)(2016)1207[19] S. Hoo-Chang,H. R.Roth,M.高湖,加-地Lu,Z.徐岛Nogues,J.姚明:D. Mollura , R.M. Summers , Deep convolutional neural networksforcomputer-aideddetection:CNNarchitectures,datasetcharacteristics andtransfer learning , IEEE Trans. Med. Imaging 35(5)(2016)1285-1297。[20] O. stecIrsoy,E. Alpaydın,持续建设性深度神经网络,2018 arXiv预印本arXiv:1804. 02491.[21] A.S. Razavian,H. Azizpour,J. Sullivan,S.卡尔森,CNN功能现成的:一个令人震惊的识别基线,在:IEEE计算机视觉和模式识别研讨会(CVPRW),2014年,pp.512-519[22] H. Azizpour,A.S. Razavian,J. Sullivan,A. Maki,S. Carlsson,From genericto specific deep representations for visual recognition ,2014 arXiv preprint arXiv:1406. 五七七四。[23] K. Gopalakrishnan,S.K. Khaitan,A.乔杜里,A. Agrawal,深度卷积神经网络与基于计算机视觉的数据驱动的路面破损检测的转移学习,Constr。Buil. Mater. 157(2017)322-330。[24] O.佩纳蒂湾Nogueira,J. Santos,深度特征是否从日常物体推广到遥感和空中场景领域?,IEEE计算机视觉和模式识别研讨会,2015年,第100页。44比51[25] N. Tajbakhsh,J.Y.申,S. R.古鲁杜河赫斯特,C.B. Kendall,M.B.Gotway,J. Liang,用于医学图像分析的卷积神经网络:完全训练还是微调?IEEE Trans. Med. Imaging 35(5)(2016)1299-1312。[26] K. 西蒙尼扬A.Zisserman,Very deep convolutional networks for large-scale image recognition , in : International Conference on LearningRepresentations,2015,pp.1-14号。[27] P. Wang , G.W.Cottrell , Basic level categorization facilitates visualobject recognition , in : International Conference on LearningRepresentations,2016,pp.1比13[28] K. 他 , X 。 Zhang , S. Ren , J. Sun , Deep residual learning forimagerecognition,2015。 arXiv:151203385v1.[29] J. Shijie,W.作者:J.四平,基于卷积神经网络的图像分类数据增强研究,中国自动化大会(CAC),2017年,pp. 4165-4170[30] 王杰湖,加-地Perez,The effectiveness of data augmentation in imageClassification using deep learning,in:IEEE Conference on ComputerVision and Pattern Recognition,2017,pp. 一比八··254Shallu和R.Mehra/ICT Express 4(2018)247[31] B.S. Veeling,J.Linmans,J.Winkens,T.科恩,M。威灵,[32] 基于深度神经网络的植物病害叶片图像分类识别。内特尔Neurosci.[33] 朗格塞拉罗河菲尔金斯角霍夫曼,J.L.好吧,J。哦,A.V.帕尔瓦尼L. Pantanowitz,M. Montalto,数字病理系统中放大率和分辨率之间的关系,J. Pathol。告知。4(2013年)。[34] M.作者:J. Gangeh,J. Zubovits,G. Clarke,A.L. Martel,乳腺癌病理学全切片中诊断相关区域的分类:基于纹理的方法,IEEE Trans.Med. Imaging 35(1)(2016)307-315。[35] C. Loukas,S. Kostopoulos,A. Tanoglidi,D.格洛索斯角Sfikas,D.Cavouras,基于低放大率下可视化的组织切片图像分类的乳腺癌表征,载于:医学计算和数学方法,2013年。[36] F. 斯潘霍尔湖奥利韦里亚角珀蒂让湖Heutte,乳腺癌组织病理学图像分类数据集,IEEE Trans. Biomed。Eng.63(7)(2015)1455-1462。[37] F. Keskin , A. Suhre , K. Kose , T. Erashin , A.E. 塞 廷 河 Cetin-Atalay,使用基于复小波的协方差描述符对人类癌细胞进行图像分类,PLoS One 8(1)(2013)。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 黑板风格计算机毕业答辩PPT模板下载
- CodeSandbox实现ListView快速创建指南
- Node.js脚本实现WXR文件到Postgres数据库帖子导入
- 清新简约创意三角毕业论文答辩PPT模板
- DISCORD-JS-CRUD:提升 Discord 机器人开发体验
- Node.js v4.3.2版本Linux ARM64平台运行时环境发布
- SQLight:C++11编写的轻量级MySQL客户端
- 计算机专业毕业论文答辩PPT模板
- Wireshark网络抓包工具的使用与数据包解析
- Wild Match Map: JavaScript中实现通配符映射与事件绑定
- 毕业答辩利器:蝶恋花毕业设计PPT模板
- Node.js深度解析:高性能Web服务器与实时应用构建
- 掌握深度图技术:游戏开发中的绚丽应用案例
- Dart语言的HTTP扩展包功能详解
- MoonMaker: 投资组合加固神器,助力$GME投资者登月
- 计算机毕业设计答辩PPT模板下载
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功