没有合适的资源?快使用搜索试试~ 我知道了~
阵列16(2022)100256BreastMultiNet:一种使用深度神经网络检测乳腺癌的马里兰州Mahbubur Rahmana,b,*, Md. Saikat Islam Khan a,b,**,Hafiz Md. HasanBabu教授,ca孟加拉国Mawlana Bhashani科技大学计算机科学与工程系b孟加拉国达卡国际大学计算机科学与工程系c孟加拉国达卡大学计算机科学与工程系A R T I C L EI N FO关键词:DenseNet-201VGG 19直方图梯度局部二值模式加速鲁棒特性A B S T R A C T乳腺癌主要见于女性,是全球女性死亡的主要原因。使用活检组织图像诊断乳腺癌是昂贵的,耗时的,并且充满了医生之间的冲突。由于计算机辅助诊断(CAD)系统的进步,病理学家现在可以更加一致和及时地诊断乳腺癌。因此,对基于CAD的机器学习技术的需求激增。这项研究描述了一个“BreastMultiNet”框架,该框架侧重于通过利用两个公开可用的数据集来识别不同类型的乳腺癌的迁移学习概念。所建议的“BreastMultiNet“架构允许 快 速 和 全 面 的 乳 腺 癌 诊 断 。 建 议 的 方 案 在 众 所 周 知 的 传 统 和 深 度 学 习 模 型 ( 如 HOG , LBP, SURP,DenseNet201和VGG19)的帮助下从显微镜图像中提取特征。相比之下,迁移学习模型比传统模型提供了更好的准确性。迁移学习模型的收集属性随后被分配到求和层,从而产生融合向量。该框架在BreakHis和ICIAR数据集上分别实现了99%和95%的分类准确率,优于所有其他最先进的技术。在准确性方面,“BreastMultiNet ”框架 可以用 作医院 和医疗护 理环境 中的建 模方法。1. 介绍乳腺癌是全世界50岁出头妇女癌症相关死亡的主要原因。据世卫组织统计,2020年有230万妇女被诊断患有乳腺癌,其中685,000人死亡[1]。乳腺癌的发生是因为一些乳腺细胞是不自然产生的[2]。异常细胞以比正常组织更快的速度增殖,并继续聚集在一起形成肿块。这些细胞有可能扩散到淋巴结和身体的其他区域[3]。乳腺组织中的细胞称为小叶和乳腺中的许多其他组织是乳腺癌最常见的原因[4,5]。乳腺癌可能影响任何人,甚至男性。据估计,2021年美国有2650名男性被诊断患有乳腺癌,其中约530人死亡[6]。如果乳腺癌被早期发现,存活率将会攀升 到80%。通常使用的乳腺癌检测方法包括乳房X线摄影、超声、磁共振成像(MRI)和活检[7,8]。通过筛查乳房X光检查发现的乳房异常是由放射科医生检查[9]。超声可用于检测乳腺肿瘤是实体瘤还是液囊,MRI可定位深部受损组织[10]。组织病理学图像的基于色素和纹理的方面用于实现更好的分割活动[11]。在医学图像分析中,组织病理学成像方法正在快速发展,但仍需要自动化技术来获得有效且经济准确的结果[12]。由于未能及早诊断这种疾病,目前最严重的癌症正在上升。常规和传统的机器学习方法用于各种医疗问题领域[13,14]。每年都有许多人死于这种癌症,许多人的生命因此受到损害。深度学习架构旨在通过在完全点对点的路径中自动进行提取操作并从最小到最大级别学习输入图像的综合特征以用于分类策略来解决先前方法的缺点[ 15,16 ]。所建议的技术已经开发了一种系统,* 通讯作者。 孟加拉国Mawlana Bhashani科技大学计算机科学与工程系** 通讯作者。孟加拉国Mawlana Bhashani科技大学计算机科学与工程系电子邮件地址:mahbub. gmail.com(Md.M. Rahman),gmail.com(Md.S.I. Khan),hafizbabu@hotmail.com(H.Md.H.Babu)。https://doi.org/10.1016/j.array.2022.100256接收日期:2022年8月24日;接收日期:2022年10月29日;接受日期:2022年11月2日2022年11月7日网上发售2590-0056/© 2022作者。爱思唯尔公司出版这是一篇基于CC BY-NC-ND许可证(http://creativecommons.org/licenses/by-nc-nd/4.0/)的开放获取文章。可在ScienceDirect上获得目录列表阵列期刊主页:www.sciencedirect.com/journal/array医学博士Rahman等人阵列16(2022)1002562快 速 检 测 乳 腺 癌 , 增 加 人 们 的 生 存 机 会 。 提 出 了 名 为“BreastMultiNet“架构的自动乳腺癌识别结构。该系统根据BreakHis图像对良性和恶性癌症进行分类,根据ICIAR显微镜图像对浸润性、良性、原位和正常乳腺癌进行分类。我们使用CNN预训练模型和传统模型(如VGG 19,DenseNet-201,HOG,LBP和SURF)从显微镜图像中提取特征。为了使最高的结果,几个特征提取策略,在这项研究中使用。然后,为了聚合所有特征,我们使用了一个具有两个最佳模型的级联层。为了得到一个融合的向量,密集层,归一化层,和dropout层被用于微调。对于分类,使用具有softmax函数的最后一个密集层。这项研究的主要贡献是:- 与传统的机器学习方法相比,- 所建议的框架在良性数据上表现良好,并且不会错误识别任何恶性数据。- “BreastMultiNet“框架的性能结果表明,我们的系统是能够获得很大的性能在这两种情况下。整个技术分为以下几个部分:第2部分讨论了先前对乳腺癌的研究,以及第3和第4部分讨论的建议的第五节讨论了比较研究和未来的发展方向。第六节揭示了2. 文献综述使用深度神经网络识别和分类乳腺癌具有挑战性。大量的研究人员已经利用各种方法或策略来识别乳腺癌。本节中提到了一些乳腺癌检测的现代技术。根据文献综述,将乳腺癌检测方法分为三类:图像准备、特征提取和分类。Zhang等人提出了一种多尺度残差卷积神经网络(MSRCNN)和基于SVM的IDC自动发现方法。在将来自整个载玻片图像(WSI)的补丁馈送到MSRCNN中进行特征提取之前,使用数据增强和归一化对其进行预处理。然后,收集的特征被发送到SVM,SVM将它们分类为好的或受影响的补丁。实验结果表明,在五次交叉验证中,准确率为87.45%[17]。Celik,Y.,等人(2020)建议使用深度机器学习方法自动识别浸润性导管癌(IDC),这是最常见的乳腺癌形式。他们在研究中使用了深度学习预训练模型ResNet-50和DenseNet-161来识别IDC。在他们的实验中,他们使用了一个公共的组织病理学数据集,包括277,524个图像切片。DenseNet-161模型的标准化准确率为91.57%,这是在预训练深度学习框架的最后一层上学习的结果[18]。此外,Xiangyu Song等人基于四个真实世界的数据集[48]开发了基于双图对比学习的知识跟踪,采用两层结构部分。 为了构建任务和想法的区别性解释,在节点级使用RNN和记忆增强神经网络,图级,分别。所提出的技术生成准确的通过并发建设性损失的可视化和预测结果。N. Rekli等人(2022)检查了不同的乳腺癌检测策略。MRI已经声称在其中发现了新的证据。乳腺X线摄影、超声检查和MRI根据肿瘤类型、乳腺密度和患者病史评估诊断乳腺癌的性能。 MRI的敏感性最高,为94.6%。独立模态,而乳房X线摄影具有最低的灵敏度,与乳房形状、密度或病史无关[8]。在另一项研究中,Yang,S.四个真实属性网络数据集的基础上[49]。高斯先验中心的倒数距离损失Dallahem等人开发了一种CNN架构,具有15个完全连接的层和两个完全连接的层,与六个不同的激活函数相比。所使用的数据集PatchCamelyon有220,000张用于训练的分类图像和57,000张未分类的测试图像。在本研究中,形成的测量值达到最高AUC值,95.46% [19]。V. Gupta等人(2021)提出了一种改进的残差神经网络导向技术,用于检测乳腺癌组织病理学图像。建议的技术在40 X、100 X、200 X和400 X的照明水平下表现良好在比例因子为40X的BreakHis数据集上,该网络实现了99.75%的平均分类准确率[20]。此外,为了直接理解推文、社会关系和发布时间之间的潜在特征和关系等人介绍了一种端到端的深度学习方法,称为DFMF(多模态特征的深度融合)[50]。为了理解tweets的高级含义以及复杂的社会联系,拟议的融合使用一个词嵌入层和节点嵌入层。与LR和SVM相比,建议的DFMF在预测转发时间方面表现更好,达到11.25%的性能。然后,为了滤除噪声元素,以两个真实世界的图数据集为样本进行跨网络节点分类,Yang,S。等人提出了一个鲁棒的图域自适应学习框架,称为RGDAL [51]。对于互信息的估计,该方法是使用动态邻域采样技术,可以离散化的图形和图形的空间特征。最后,与SOTA图自适应学习方法相比,它在跨网络节点分类方面表现出更好的弹性。Agaba,A. J.,等人(2022)使用定制提取特征方法和深度神经网络对公开可用的BreakHis数据进行乳腺癌识别。研究结果表明,利用定制的特征提取器技术和DNN分类器,在乳腺癌多分类中,40倍放大的准确率为97.87%[21]。Brancati建议使用一种深度神经策略来识别IDC并对乳腺组织学图像中的淋巴瘤亚类进行分类。他们在所有情况下都使用了固有的CNN,并将CNN与UNet和ResNet设计进行了对比。他们提出了一种基于内在CNN和softmax分类函数的方法,以解决绕过自定义病理特征的两种情况。该方法最终达到了97.06%的准确率[22]。Melekoodappattu,J. G.,等人(2022)开发了一种用于独立癌症诊断的集成技术,该技术使用九层改进的卷积神经网络。在基于纹理特征提取的阶段,采用均匀流形近似和投影降低纹理特征及其所占比例,建议的聚类用于汇总每个步骤的结果以得出结论,其准确率为98%[23]。Roy等人开发了一个面向补丁的分类器,它以两种方式使用CNN:第一,一个补丁一个决定,第二,所有补丁一个决定。他们利用了2018年ICIAR乳腺组织学成像集合,分为四个亚组:正常,良性,原位和浸润性癌症。成功率为87% [24]。在此基础上,Yin,H.等人提供了两种方法来利用基于这些预训练文本模型的无监督自动编码器(AE)框架,以获得最佳聚类性能[52]。在建议的技术中,他们采用图卷积网络作为编码器,将结构特征与结构文本网络图自动编码器(STN-GAE)的结构特征相结合,他们使用了一种不同的技术,称为软聚类分配自动编码器,使学习的文本表示更加聚类友好。戴伊等人(2022)建立了一种自动乳腺癌诊断方法,医学博士Rahman等人阵列16(2022)1002563××乳腺图像,并利用DenseNet121框架作为特征提取器。利用乳腺学研究数据库(DMR-IR)乳腺成像数据集评估其系统的效率,其达到了98.80%的最大分类准确度[25]。3. 拟议方法本节介绍如何使用多尺度迁移学习模型来识别乳腺图像。图1中描述了在该识别中采用的建议的“BreastMultiNet“结构。在将数据集划分为训练、测试和验证类之前,使用了各种预处理方法。在此之后,全面的数据增强方法扩展了数据集的规模。所提出的体系结构保持从扩展特征中检索特征。最后,本研究分别使用两个公开可用的数据集训练系统,然后利用测试图像来评估所提出的“BreastMultiNet“架构。随后的部分提供了与建议的架构相关联的块的详细信息3.1. 数据集在乳腺癌诊断中提出的其中一个就是Break His数据[26]。另一个数据来源是ICIAR数据[27]。BreakHis数据集结合了良性和恶性癌症患者,分别有2480名和5429名患者。良性的显微镜图像中显示了四种良性肿瘤:腺瘤、叶状瘤、纤维腺瘤和腺病。恶性肿瘤包括小叶癌、粘液癌和乳头状癌。使用几种放大倍数(即400 X、200 X、100 X和40 X)从82例患者中获取显微镜数据。所有的显微镜图像都是逐个患者选择的,而不是逐个图像选择的。从不同的患者中收集数据集,以增加分派不匹配并改善收藏. 表1包含两个数据集的补充事实。3.2. 数据预处理阶段在将图像放入微调的变分深度学习方法之前,使用了许多预处理技术,如图3所示。BreakHis数据由png格式的所有显微图像组成,具有3个RGB通道和每个通道的8位分辨率。我们使用机器学习算法将大量高分辨率图像转换为224 224像素。建议的方法将收集的图像转换为Numpy数组,使模型能够更快地训练,减少存储。完整的数据集分为三个部分。30%的数据用于测试和验证,其余用于培训。解决过拟合问题是为了使模型更加稳健,并且还使用了几种数据增强程序[28]。在使用数据预处理方法之后,该数据集的大小从7909增加到54,403。 使用参数值2执行缩放,使用90直角,剪切值为0.5,宽度和高度偏移值为0.4用于预处理阶段。之后,垂直和水平翻转应用于适当的扩展功能。在ICIAR数据集中,所有tiff格式的图像都被转换为所需的格式,并使用迁移学习原理调整大小为224 224像素。之后,本研究将相同的程序应用于BreakHis集合,以提高性能准确性。ICIAR数据集中的图像计数在应用数据扩充技术后从400增加到2560。表2显示了应用数据增强技术的癌症类型数据集。3.3. 构造多尺度特征学习模型通过将VGG19与DensNet201相结合,提出了一种独特的多尺度神经网络自适应系统.混合模型捕获效度ICIAR2018数据集包含400血红素 和低级性能之前构建一多尺度特征乳房组织病理学的曙红染色显微图像。ICIAR数据分类如下:正常、原位、良性和浸润性癌症,每个类别包括100幅乳腺图像。图2示出了从BreakHis和ICIAR导出的选定的一组图像。学习过程,以评估这些功能在不同的尺度。建议BrestMultiNet微调过程如图3所示。综合特征包括显微图像锐化、模糊、纹理和梯度对齐[29]。在合并了所有Fig. 1. 乳腺癌分类基本图。医学博士Rahman等人阵列16(2022)1002564图二. 从两个数据集导出的样本图像。表1数据增强前的癌症类型数据集。癌症类型BreakHis数据集ICIAR数据集良性肿瘤的诊断和治疗表2数据增强后的癌症类型数据集。癌症类型BreakHis数据集ICIAR数据集1085侵入性70 20 10图三. “BreastMultiNet”框架的微调过程恶性肿瘤42741070 85火车验证测试火车验证测试正常原位良性7070702020201010恶性肿瘤13,46829,9183367749075侵入性49014010正常49014010原位49014010良性49014010医学博士Rahman等人阵列16(2022)1002565×∑.)P(5){()S=(,)=X+根据这些特征,建议的每个被接受的CNN预训练系统的形式和内容,以及微调方法,将在以下小节中介绍3.3.1. 视觉几何组网络(VGG19)在2014年ILSVRC竞赛中,Simonyan等人制作了VGGNet预训练模型,赢得了图像翻译的第一名和图像分类的第二名[30]。与Alex-Net设计相比,VGGNet架构的表现令人钦佩,但有一个错误斜率或边缘方向直方图,随后混合以提供HOG描述符[37,38]。在HOG中提取特征之前,必须在x轴和y轴上创建斜率下面的习惯用法描述了HOG体系结构。I(X,y)表示X和y的像素强度,gx表示X的取向斜率,而gy表示y(X,y)的取向斜率X和y的斜率大小由g(X,y)表示,并由下式估计:gx=I(x+1,y)-I(x-1,y)( 1)gy=I(x,y+1)-I(x,y-1)( 2)率为8.1%。卷积层分为5层。在每个Δg x y√̅(̅g2̅g2̅)(三)全连接层更强大。下五层的深度每一层都被分成子区域,每个子区域都使用最大池来减少可训练参数。最后一层是获得推荐的VGG19模型的特征向量的关键规则[31]。基于VGG19的CNN架构的详细说明在图中给出。 四、3.3.2. 密集卷积网络(DenseNet201)Huang等人创建了DenseNet预训练模型,该模型在2017年的CIFAR-100,CIFAR-100和ImageNet数据集上具有最高的准确性。这个概念演变成这样一个ResNet概念,其中, 来自一层的馈送以精确的方式中继到其它层。该链接允许网络在模型内部传递重要信息,从而实现更有效的网络训练和增强的网络性能[33]。作为初始组件提取器,系统使用了DenseNet201预训练模型。DenseNet201层通过在执行时处理过拟合复杂性而在有限的数据集上表现出色。 此外,通过克服梯度下降问题,DenseNet201模型显著改善了ImageNet数据库[34]。当更深的CNN层与X和y的梯度方向由θθ=arctan(gy/gx)( 4)3.3.4. 局部二进制模式通过LBP探索超声图像的表面和区域空间分析[39]。利用由0和1表示的阈值来使相邻像素水平化。如果周围的每个像素因此,LBP为替代经转换为十进制平均pixel值的二进制值的集合。在等式(5)和(6)中,P代表PIXEL强度,gp代表第i个相邻PIXEL,gc代表中心PIXEL。 获取的LBP码用于提取直方图特征,尺寸为2P。因此,直方图特征向量长度为8周围的像素是256。P-1L=S GP-GC2P=0DenseNet,DenseNet 201预训练模型比AlexNet,ResNet和GoogLeNet设计更详细[35,36]。3.3.3. 直方图梯度法1;如果i. j>00;否则3.3.5. 加速鲁棒特性(六)HOG是一种特征提取技术。首先将输入图像转换为灰度图像,然后再转换为梯度图像,以便更好地进行边缘识别。每个信号单元收集SURF是一种独立于相似性的代表性比较方法。在最近邻筛选中,SURF使用其强大的特征提取方法[40]。SURF能够提取连续最大池层,使用ReLU函数作为非线性内核功能保证的的输出的 每个y医学博士Rahman等人阵列16(2022)1002566见图4。 基于VGG19的CNN架构。医学博士Rahman等人阵列16(2022)1002567∑k1[]H(x,σ)(7)增强期间的属性BoX滤波由SURF(一种缩放和旋转变化方法)使用,以便于快速运算符计算[41]。SURF具有两个功能:特征提取和特征描述。SURF中使用Hessian矩阵假设来提取特征。SURF标识符给出了由机会并决定哪些属性与特定的预测类最相关。在SoftMax过程中,结果值介于0和1之间,提示神经元激发。给定的等式SoftMax函数定义为:exp. zj)围绕感兴趣的对象。 分区域资源中心通过雇用Haar子波响应来指示一个中间点的特定方向。相邻的感兴趣区域被翻转到所需的softmax(z)j=Lexpxk=(九)计算描述符之前的方向。公式(7)提供了Hessian矩阵XH(X,σ)。水平和垂直方向上的小波响应在等式(8)中分别由dx和dy表示。对于每个段,测量向量V。stecL xx(x,σ)Lxy(x,σ)Lxy(x,σ)Lyy(x,σ)V={∑dx,∑dy,∑|DX|,∑|dy|(8)3.4. 精调过程图3展示了使用不同的、完全链接的层来整合用于识别乳腺癌的表3中显示了将不同的深度学习方法和多层次链接层相结合的结果。该统计数据是在使用布尔分割技术期间生成的。因此,在最终的完全链接层中有两个单元。然而,在处理ICIAR数据时,我们在最终的深度网络中使用了四个单元。建议的“BreastMultiNet“模块的其他架构类似于使用分类算法部署。下面介绍了我们的“BreastMultiNet“架构的拟议算法,并概述了该过程的每个阶段。所提出的算法1从组织病理学图像自动检测和分类乳腺癌。分类。继续提取每个特征,第一,所有预先训练的模型都使用GlobalAveragePooling2D,通过找到每个输入通道的平均值,将所有层平坦化为向量使用concatenate层,所有不同的向量都被连接到一个向量中。在此之后,使用SIX过度拟合是深度学习模型中的一个严重问题,每当系统在训练示例上过度训练时就会发生,导致测试结果不令人满意[42]。我们采用两个dropout层来克服过拟合问题。第一个dropping层将在模型训练期间丢弃大部分样本,而随后的dropout层将比前一层消除更少的样本。此外,这种方法大大方便了培训,输入:组织学图像训练集δ1、验证集δ2和测试集δ3。 a←学习率。b ←纪元。c←批量大小。n←在一个批量大小中覆盖的图像数量。输出:w←开始:1. 将训练集中的每个组织学图像转换为224× 224。2. 执行数据扩充策略以增加数据集大小。3. 使用DenseNet-201和VGG-19 CNN预训练模型从Hierarchology图像中提取特征。4. 使用连接图层合并提取的要素。5. 设置微调层CNN dense,CNN batchnormalization,CNN dropout和CNN softmax。6. 初始化CNN预训练模型参数:a,b,c,n。7. 训练阶段此外,两个批处理规范化层8. 对于b= 1到b,9. 为训练集δ1。在我们的分类模型中使用,这很关键。批处理规范化层将重新组织所有数据以快速规范化。重组后的数据将有助于加快训练过程,同时减少系统启动的脆弱性。密度层是一个完全链接的层,包含来自先前和当前级别的大多数神经元。这些层处理输入数据并生成结果。最后一层将根据预期类的长度计算概率。SoftMax激活功能分析结果表3拟议的“BreastMultiNet”框架的细节。10. 向前传播并确定损失函数。11. 反向传播并更新权重w。12. 端4. 4.实验设计与结果计算发现的架构,研究中使用的超参数,以及从BreakHis和ICIAR数据集获得的发现层(类型)参数结果形成联系input_1(InputLayer)Densenet201(Functional)018,321,984(None,224,224,3)(None(1920年7月7日)联系我们[0][0]vgg19(功能)20,024,384(None,7,7,512)联系我们[0][0]global_average_pooling2d(全局)0(None(1920年)Densenet201[0][0]global_average_pooling2d_2(全局)0(None,512)vgg19[0][0]连接(Concatenate)0(None,2432)global_average_pooling2d[0][0]辍学0(None,2432)global_average_pooling2d_1[0][0]concatenate[0][0]batch_normalization(批量化)9728(None,2432)[0]第二届中国国际汽车工业展览会密集(密集)622,848(None,256)batch_normalization[0][0]dropout_1(脱落)0(None,256)密[0][0]batch_normalization_1 (批量归一化)1024(None,256)下载中心[0][0]dense_1(密集)32,896(None,128)batch_normalization_1[0][0]批次规格化2 (批量归一化)512(None,128)联系我们[0]dense_2(密集)258(None(2)batch_normalization_2[0][0]总参数:39,013,634可训练参数:38,778,946不可训练参数:234,688医学博士Rahman等人阵列16(2022)1002568====×-×使用所提出的方法和特定CNN模型的详细比较如图所示。 四、4.1. 实验设计建议的在基于64位Windows 11的PC上,我们使用Jypter Notebook(PC)训练和评估模型。这台电脑配备了8 GB的RAM和一个2.80 GHz英特尔第11代酷睿i7 CPU。4.2. 性能度量采用精确率、召回率、假阳性率、真阴性率(TNR)、F1-Score和Matthews相关系数(MCC)等定量指标对该框架进行了评价。真阳性(TP)、真阴性(TN)、假阳性(FP)和假阴性(FN)等参数取决于混淆矩阵的结论。术语“TP“指的是其中建议的“BreastMultiNet“框架准确地检测到阳性乳腺癌种类的结果。术语“TN“表示其中所建议的方案准确地鉴定出阴性的乳腺癌种类的结果。术语FP表示所提出的框架错误识别阳性乳腺的情况。术语“FN“描述了所提出的框架错误识别阴性肿瘤类型的情况。以下是所有评估指标的名称:4.3. 训练和参数优化图5描绘了在训练所提出的“BreastMultiNet“架构时BreakHis数据集的模拟结果斜率下降的误差单位和优化方程是训练模型时要考虑的两个重要超参数[43]。我们选择adam变量作为优化方程,因为它连接了能够处理大数据集上稀疏集的各种优化器的重要值。因为我们的BreakHis数据集具有二进制特征,所以我们使用二进制交叉熵作为损失函数。我们需要一个理想的学习率值来减少损失函数。在这个实验中,我们选择了0.0001的学习率。此外,使用了适度的批量32,证明了系统的适当通用性。所建议的方法是在第25个纪元认识的。然而,在第19次训练之后,该模型达到了99%以上的训练准确率和98%的验证准确率。在训练阶段也不存在过拟合问题,如图5(a)所示。图5(b)示出了电弧如何显著降低损耗百分比。图6示出了训练时的准确性进展和损失。在ICIAR集合上推荐“BreastMultiNet“架构。 我们使用交叉熵作为梯度下降,因为我们的研究集中在ICIAR样本中的多标签分类。由于该数据集中 的 图 像 数 量 有 限 , 建 议 的 方 法 需 要 开 发 更 多 的 功 能 。“BreastMultiNet“架构训练了第245个epoch,并在第180个epoch之后获得了97%的训练准确率。因此,整个验证阶段的累积验证准确度为97%。图6(b)展示了误差函数图,该图显示损失值接近于0,并且在整个训练和验证过程中没有发生波动。图6(a)进一步示出了过拟合问题不明显。准确度TP+TNTP+TN+FP+FN灵敏度TPTP+FN特异性TNTN+FP精度TPTP+FPPr×Re(十)(十一)(十二)(十三)4.4. 成果讨论利用“BreastMultiNet“架构的BreakHis样品的混淆表和ROC图建议的系统合并了两种众所周知的迁移学习方法,Dense-Net 201和VGG19,然后使用融合特征来确定乳腺组织是良性还是癌性的。图7(a)表明,大多数图像被正确标记为良性和恶性乳腺癌,只有一个错误分类。同时,所建议的方法错误分类只有一个良性的显微图像。F1-评分=2×Pr+Re(14)该设计的区域得分为0.998,表明该模型是一致和可靠的。此外,各种深度学习技术MCCTPTNFPFN=(TP+FP)(TP+FN)(TN+FN)(TN+FN)(十五)在BreakHis数据上进行独立测试,以更好地理解“BreastMultiNet“架构的有用性表4显示了“BreastMultiNet“架构和其他五个迁移学习模型的组合。“BreastMultiNet“架构超越了所有现有的图五. 训练和验证期间的BreakHis数据:(a)时间点与准确度值。(b)时代 与损失值。医学博士Rahman等人阵列16(2022)1002569图第六章训练和验证期间的ICIAR数据:(a)历元与准确度值。(b)时期与损失值。见图7。 BreakHis数据集:(a)混淆矩阵X。(b)大鹏表4五种学习模型和BreastMultiNet方法在BreakHis数据集上的比较研究方法癌症类型TPTNFPFN精度召回FPRTNRF1得分MCCDensNet201良性7281430.9460.9560.0450.9450.9500.905恶性8172340.9580.9450.0390.9560.9570.907平均分0.9450.9450.0350.9560.9520.906VGG16良性7177840.9010.9510.0890.9120.9230.854恶性7771480.9540.9120.0510.9520.9310.851平均分0.9170.9250.0650.9260.9250.846VGG19良性6981460.9460.9160.0390.9560.9310.874恶性8169640.9260.9510.0810.9200.9360.867平均分0.9350.9350.0550.9360.9350.866MobileNet良性40778350.8280.5310.0880.9590.6560.484恶性77403580.6930.9110.4560.5380.7880.479平均分0.7560.7160.2770.7160.7250.486ResNet-50良性47814280.9190.6250.0490.9530.7490.613恶性81472840.7350.9510.3690.3280.8420.624平均分0.8250.7860.2060.7900.8000.621该方法良性7989110.9880.9880.0110.9890.9890.977恶性8979110.9890.9890.0120.9880.9940.990平均分0.9890.9890.0110.9890.9920.984最先进的模型,平均准确率为0.997,召回率为0.997,f1分数为0.995,MCC为0.993。FNR为0.010,TNR接近1,表明该模型是有效的。Dense-Net 201表现良好,f1-score和TNR值分别为0.952和0.956。使用的概念方法检测该数据集中的多类癌组,包括良性、原位、浸润性和正常。图8(a)展示了将10、8、10和10个显微图像正确分类为四种不同类型的多种癌症。另一方面,“BreastMultiNet“框架仅错误分类了一个良性的显微图像。 该范例的面积得分为0.935,表明该模型具有一致性和全面性。表5还包括一项比较研究,医学博士Rahman等人阵列16(2022)10025610见图8。 ICIAR数据:(a)混淆矩阵。 (b)大鹏表5ICIAR数据集上五种学习模型和"BreastMultiNet"方法的比较研究。模型癌症类型TPTNFPFN精度召回FPRTNRF1得分MCCDensNet201良性肿瘤1028200.8311.0000.0550.9450.9100.881原位癌830021.0000.8030.0001.0000.8940.872正常的癌症829120.8920.8020.0290.9680.8420.794浸润性癌928210.8170.9020.0560.9380.8560.812平均分0.8800.8680.0370.9580.8800.841VGG16良性肿瘤728230.7780.7040.0680.9340.7420.658原位癌825520.06240.8010.1680.8340.7030.593正常的癌症530051.0000.5000.0001.0000.6740.654浸润性癌825520.6210.8010.1670.8260.7010.594平均分0.7540.7020.1000.9000.6990.618VGG19良性肿瘤725530.5840.7030.1560.8350.6350.503原位癌429160.8020.3960.0260.9710.5260.484正常的癌症925510.6360.9010.1620.8430.7460.666浸润性癌627340.6740.6010.1020.9040.6310.526平均分0.6740.6540.4460.5540.6540.541MobileNet良性肿瘤029100.0010.0010.0240.9590.0020.001原位癌5201050.3310.5010.3340.6740.4010.154正常的癌症229180.6700.2010.0260.9680.3120.269浸润性癌8171320.3840.8010.4290.5710.5210.321平均分0.3510.3840.2100.7910.3790.156ResNet-50良性肿瘤728230.7840.7010.0670.9310.7390.659原位癌826420.6660.8010.1290.8740.7320.631正常的癌症929110.9010.8980.0260.9680.9010.869浸润性癌829120.8900.7990.0230.9710.8380.791平均分0.8410.8010.0680.9280.8010.741该方法良性肿瘤1030001.0001.0000.0001.0001.0001.000原位癌830021.0000.8000.0001.0000.8900.870正常的癌症1029100.9101.0000.0330.9700.9530.940浸润性癌1029100.9101.0000.0330.9700.9530.940平均分0.9600.9500.0170.9900.9520.941其揭示了表5进一步显示,概念方法在检测乳腺癌亚型方面优于其他五种模型。DenseNet-201和ResNet 50预训练模型在五次迁移深度学习中的分类准确率另另一方面,三个模型在分类多个方面表现不佳表6对传统模型和建议模型的计算结果进行了比较。模型数据集准确度特异性灵敏度猪突破His 0.566 0.675 0.702国际农业研究中心SURF BreakHis 0.657 0.643 0.740乳腺癌组。许多传统功能的单独性能值LBP国际农业研究理事会0.634 0.710 0.793国际农业研究理事会诸如HOG、LBP和SURF之类的处理方法是不够的。VGG19突破希斯0.933 0.921 0.873只有DensNet201在这两个数据集上都优于其他方法,准确率从50%到60%不等。表6最终表明,建议的融合结构优于所有现有的方法。DensNet201建议国际农业研究中心0.945 0.953 0.925国际农业研究理事会0.992 0.989 0.9895. 结果分析这种(VGG19+ DensNet201)ICIAR 0.952 0.960 0.950医学博士Rahman等人阵列16(2022)10025610表7现有方法的比较和提出的277,524个贴片,不足以获得可接受的准确度[18]。虽然大多数作者都付出了巨大的努力来训练一个作者分类类方法准确度系统,获得不满意的结果背后的各种设计试验[17,24,46]。Alzubaidi等人提出了一个新的CNNSaini等人(2020)[46]多分类DCGAN和VGG16 94.5%架构 与 70多 层 多组乳腺癌Alzubaidi等人(2020)[47]多类混合CNN 96.1%在另一项研究中的分类[47]。在二进制数据集中,Saini和Susan(2020)解决了数据困难。DCGAN专门用于Zhang et al.(2021)[17] Binary Class MSRCNN and SVM 87.45%改善少数民族的结果如果DCGAN训练Celik等人(2020)[18] Binary Class s ResNet50和91.57%应用于所有数据集,分布将无法推广Dallahem等人(2019年)[19]多类DensNet161修改的CNN百分之九十五点四六[46 ]第46段。另一方面,我们建议的技术不会错误识别BreakHi
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功