没有合适的资源?快使用搜索试试~ 我知道了~
BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 100008Contents lists available at ScienceDirectBenchCouncil Transactions on Benchmarks,Standards and Evaluationsjournal homepage: https://www.keaipublishing.com/en/journals/benchcouncil-transactions-on-benchmarks-standards-and-evaluations/MVDI25K: A large-scale dataset of microscopic vaginal discharge imagesLin Li a,b, Jingyi Liu c, Fei Yu a, Xunkun Wang a,∗, Tian-Zhu Xiang d,∗a QINGDAO HUA JING BIOTECHNOLOGY CO., LTD., No. 77 Keyun Road, Qingdao, Chinab Ocean University of China, Qingdao, Chinac Qingdao University of Science and Technology, Qingdao, Chinad Inception Institute of Artificial Intelligence, United Arab EmiratesA R T I C L EI N F OKeywords:Vaginal discharge detectionObject segmentationObject detectionBenchmark datasetMedical imagesA B S T R A C TWith the widespread application of artificial intelligence technology in the field of biomedical images, the deeplearning-based detection of vaginal discharge, an important but challenging topic in medical image processing,has drawn an increasing amount of research interest. Although the past few decades have witnessed majoradvances in object detection of natural scenes, such successes have been slow to medical images, not onlybecause of the complex background and diverse cell morphology in the microscope images, but also due tothe scarcity of well-annotated datasets of objects in medical images. Until now, in most hospitals in China,the vaginal diseases are often checked by observation of cell morphology using the microscope manually, orobservation of the color reaction experiment by inspectors, which are time-consuming, inefficient and easilyinterfered by subjective factors. To this end, we elaborately construct the first large-scale dataset of microscopicvaginal discharge images,named MVDI25K, which consists of 25,708 images covering 10 cell categoriesrelated to vaginal discharge detection. All the images in MVDI25K dataset are carefully annotated by expertswith bounding-box and object-level labels. In addition, we conduct a systematical benchmark experiments onMVDI25K dataset with 10 representative state-of-the-art (SOTA) deep models focusing on two key tasks, i.e.,object detection and object segmentation. Our research offers the community an opportunity to explore morein this new field.1. IntroductionObstetrics and gynecology infectious diseases, such as vaginitis,cervicitis, and endometritis, often trouble women’s health. It is reportedin [1] that, the incidence of obstetrics and gynecology infectious dis-eases accounts for about 40% of the female population in China. Thevaginal discharge examination is the most direct and effective way todetect the above diseases. For instance, the presence of trichomonasin the secretions can be used to determine whether a patient has tri-chomonas vaginitis, the presence of clue cells indicates that the patienthas bacterial vaginosis, and the presence of candida albicans determinewhether the patient has vulvovaginal candidiasis. As mentioned in [2],an increase in the number of leukocytes in vaginal secretions is a strongpredictor of bacterial vaginosis or cervical infection. Besides, whetherthere are epithelial cells in the secretions is also a sign to judge whetherthe secretion sampling is qualified.For a long time, manual inspection methods, observing the smearthrough a high-power microscope to conduct the diagnose, have domi-nated. As it is known, however, they suffer from some defects, such astime-consuming, labor-intensive, inefficient, and easy to be interferedby subjective factors. Recently, deep learning has prospered in object0� 通讯作者。电子邮件地址:maksimljc@163.com(X. Wang),tianzhu.xiang19@gmail.com(T.-Z.Xiang)。0自然场景的检测,表明其在阴道分泌物检测中具有巨大潜力。然而,还有很长的路要走,这可以归因于两个关键方面。首先,由于不同个体以及同一人的不同生命阶段之间的差异,阴道分泌物中细胞的形态、数量和分布存在相当大的差异。显然,这给自动和稳健的阴道分泌物检测带来了许多困难,如复杂的背景、尺度变化、极不均匀的对象密度、大长宽比和细胞形状的非刚性变化,如图1所示。最重要的是,深度学习在很大程度上依赖于大规模的良好注释的数据集,在医学界长期以来一直缺乏这一点,从而阻碍了这一领域的进一步研究。0为了促进阴道分泌物检测的研究,我们提供0两个贡献。首先,我们精心构建了一个名为MVDI25K的新型大规模显微阴道分泌物图像数据集,其中包含25,708张显微镜图像,涵盖了与阴道分泌物检测相关的10种细胞对象类别。据我们所知,MVDI25K是用于阴道分泌物检测的第一个大规模数据集。它具有几个独特的特点:0https://doi.org/10.1016/j.tbench.2021.100008 收到日期:2021年8月6日;修订稿收到日期:2021年10月11日;接受日期:2021年10月20日 在线发布日期:2021年11月11日2772-4859/ © 2021 The Authors. Publishing services by Elsevier B.V. on behalf of KeAi Communications Co. Ltd. 这是根据CCBY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。20L. Li, J. Liu, F. Yu等人 BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 1000080图1.MVDI25K数据集中具有挑战性的各种示例图像。用绿色边界框标记的对象都是杂质,包括细胞碎片(如上皮细胞碎片)、裸核(无细胞质和细胞膜)、药物、晶体、淀粉颗粒、油滴等。在(a)中,过多的杂质使得背景复杂,并给对象检测带来各种干扰。(b)显示了具有不同长宽比的对象。粉色边界框标记了四种类型的念珠菌,即念珠菌1、念珠菌2、念珠菌3和菌丝,其中最长的是菌丝。在(c)中,用红色边界框标记的上皮细胞显示出可变的细胞形态,与粉色边界框标记的念珠菌细胞相比具有大尺度变化。0• 层次化类别。显微图像中的所有对象都被0标记为与阴道分泌物检测相关的十种细胞类别,例如上皮细胞、线索细胞、白细胞和乳杆菌等。特别是考虑到念珠菌的多样形态,我们根据形态上的差异将它们注释为四个子类。层次化的类别可以有助于准确和细粒度的对象检测。0• 多样的注释。MVDI25K数据集中的对象是层次化的0用类别标签、边界框标签和对象级别掩模进行层次化注释,可以极大地促进不同的医学图像处理任务,如对象定位、对象检测和对象/细胞分割。0• 高质量。数据集中的所有图像都是由莱卡0奥林巴斯相差显微镜和百万像素专用医用Basler相机,尺寸从1536×1536到2064×3088。相差显微镜有助于获取更清晰、更逼真的细胞图像。此外,在整个注释过程中,通过多位专家和志愿者的交叉检查来保持准确性、可靠性和一致性。这些高质量的数据和注释有助于更深入地了解算法的性能。0其次,基于建立的MVDI25K,我们提出了一项全面的研究0对阴道分泌物检测的10种最先进基线进行了全面研究。我们在两种情况下进行了详细的实验分析,即目标检测和目标分割。根据评估结果,我们发现阴道分泌物检测非常具有挑战性,仍然远未解决,还有很大的改进空间。我们希望我们的研究将为这一新领域的发展提供强劲的推动力。0本文的其余部分组织如下。我们回顾了0当前医学数据集,医学目标检测和医学目标分割在第2节中。在第3节中,我们介绍了提出的MVDI25K数据集的详细信息,包括收集方式、注释流程和数据统计。然后,我们描述了从目标检测和目标分割两个方面进行的基准实验,并在第4节中提供了定量和定性的实验分析。最后,在第5节中得出结论。02. 相关工作0在本节中,我们简要回顾了一些相关工作0包括当前医学数据集,医学目标检测和医学目标分割。02.1. 医学图像数据集0总的来说,X射线、计算机断层扫描(CT)、磁共振成像(MRI)和正电子发射计算机断层0核磁共振成像(MRI)和正电子发射计算机断层扫描(PET)是最广泛使用的四种图像辅助手段,用于帮助0图2. MVDI25K数据集中10类细胞图像的示例。0临床医生诊断疾病,评估预后并规划手术。因此,建立了一系列相应的医学图像数据集。表1总结了它们的详细信息。0众所周知,良好的注释数据集在医学图像处理中扮演着重要的角色0在数据驱动的医学图像处理研究中发挥着重要作用。然而,据我们所知,目前很少有从显微镜成像中收集的阴道分泌物研究数据集,这可能会阻碍该领域的进一步研究。因此,在本文中,我们构建了第一个大规模的阴道分泌物图像数据集,并提供了专业的注释。与Peng的数据集[11]相比,提出的MVDI25K提供了更多具有多样性和丰富注释的图像。值得注意的是,收集显微镜图像数据集比其他医学成像设备的数据集更困难,因为显微镜成像的图像质量受到各种因素的影响,例如焦点调整。02.2. 用于医学目标检测的深度模型0目标检测,用于识别和定位图像或0视频,在计算机视觉中一直是一个长期存在的问题。最近,随着深度学习的发展,许多医学图像处理领域的研究人员已经将为自然图像开发的深度目标检测器调整为医学图像。0如[12,13]所建议,目标检测可以粗略地分为0分为两类:两阶段算法,如R-CNN [14]及其变体,和一阶段算法,如YOLO[15]和SSD[16]。由于其高效性和良好的性能,YOLO及其变体在医学成像社区引起了广泛关注。30L. Li, J. Liu, F. Yu等人 BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 1000080表1 医学图像数据集。0数据集对象年份编号 X射线 CT MRI PET MImg BBox. Obj. Cate.0ABIDE [3] Brain 2013 1,112 � � � � OASIS-3 [4] Brain 2019 3,776 � � � � DDSM [5] Breast 2000 10,239 � � � MURA [6] Upper Limb 2018 40,561 � � LIDC-IDRI [7] Lung 2006 244,527 � � � � LUNA16 a Lung 2016 888 � � �NSCLC [8] Lung 2018 1,355 � � � � DeepLesion [9] Lung等 2018 928,020 � � � � � ChestX-ray14 [10] Chest 2017 112,120 � � � Peng的数据集[11] Vaginal Dis. 2021 3,645 � �0MVDI25K(我们的)阴道分泌物2021年25,708 � � � �0BBox.: 边界框注释。Obj.: 对象级别注释。Cate.: 类别。MImg: 显微镜图像。阴道分泌物: 阴道分泌物。�: 子数据集数量。0a https://luna16.grand-challenge.org/。0基于来自肺部图像数据库联盟的胸部CT扫描0基于YOLO的模型被应用于高效准确地识别[17]中的肺结节。在[18]中建立了高质量的胆囊CT图像数据集,并且YOLO-v3在颗粒状胆石和混浊胆石的检测上取得了良好的性能。为了有效地对抗COVID-19,基于YOLOv2和ResNet-50的改进模型被设计用于高精度地检测医用口罩[19]。02.3. 用于医学对象分割的深度模型0在过去的几年里,卷积神经网络一直是0在最先进的医学图像分割模型中,如FCN[20]、U-Net[21]和Deeplab系列[22]中,U-net是最常用的架构之一。0其中,U-net起着重要作用,并且已经0应用于许多领域,例如使用NAS-Unet对高质量的磁共振成像(MRI)、计算机断层扫描(CT)和超声进行分割[23],以及医学对象分割,包括肝脏、脑和肺组织和肿瘤分割[24-26],细胞分割[27],视盘分割[28],等等。0另一个值得关注的相关主题是伪装对象检测0检测[29,30],即对具有与其自然或人造环境相似模式(如纹理、颜色和方向)的对象进行分割。在我们的阴道分泌物检测中,滴虫与其他细胞形态相比具有很强的伪装能力。因此,伪装对象检测可以为滴虫检测带来新的视角。03. 提出的数据集0我们的MVDI25K数据集包含25,708张显微镜图像,属于0与阴道分泌物检测相关的十种对象/细胞类别。这些图像经过精心挑选,以涵盖各种具有挑战性的情况,例如复杂的背景、大规模变化和非均匀的对象密度。示例可以在图1和图2中找到。我们将从数据收集、注释流程和数据统计三个方面描述MVDI25K的详细信息。03.1. 数据收集0我们构建了一个高质量的数据集,MVDI25K,其中的图像是0从HJ500分泌物分析工作站收集的0一种是直接从全国许多医院收集的新鲜样本拍摄的,另一种是由我们自己使用从其他合作医院收集的标本拍摄的。这些图像是由Leica和Olympus相位对比显微镜和百万像素专用医用Basler相机获取的。我们的数据集覆盖了中国20多个省份的315家医院,其中26家是包括北京天坛医院在内的三甲医院。0和湖北省妇幼保健院。整个收集工作持续了近9周。我们只使用设备独立收集图像数据,并不收集任何患者信息。这些图像不受版权和使用费的限制,并将在https://zenodo.org/record/5523661上提供。0此外,这些图像是由两种类型的显微镜获得的,Leica和Olympus。两种显微镜都采用相位对比视野0和Olympus显微镜。这两种显微镜都采用相位对比视野,比普通光学显微镜更适合显微镜检查,甚至未染色的细胞也可以观察得更清晰和更明亮。03.2. 专业注释0为了促进阴道分泌物检测的研究,我们提供了0为我们的MVDI25K数据集中的每个图像提供边界框和对象级注释。我们聘请了七名专业注释员,其中六名被分成三组。每组负责注释,同时他们需要交叉检查其他组的标签结果。完成注释过程后,团队领导(第七位注释专家)将仔细进行最终验证,以确保高质量的注释。03.2.1. 类别0我们为所提出的建立了一个分层的分类系统0数据集。我们首先选择了七个主要的细胞类别,如上皮细胞,线索细胞,白细胞,念珠菌,红细胞,乳杆菌和滴虫。考虑到念珠菌细胞的形态差异较大,如图2的第一行所示,我们将念珠菌细胞分为四个亚类,即念珠菌1,念珠菌2,念珠菌3和菌丝。最后,我们将这些类整合成10个细胞/对象类。我们MVDI25K的分类结构如图3(a)所示。词云的示例如图3(b)所示。我们相信细粒度分类的念珠菌将对准确的阴道分泌物检测起到积极的作用。03.2.2. 边界框注释0边界框广泛用于对象检测和定位。为了0扩展MVDI25K以进行对象提议任务,我们仔细注释了每个图像中对象周围的边界框。最后,我们从25,708个显微图像中获得了总共718,497个对象实例。图4(a)展示了一些带有注释的图像示例。03.2.3. 对象级注释0高质量的像素级标注对MVDI25K是必要的0数据集。在这里,我们关注滴虫类别,其疾病是最常见的产科和妇科感染性疾病之一。1此外,滴虫细胞通常是活跃的,因此很难从阴道分泌物显微镜样本中清楚地观察到01 https://news.un.org/en/story/2019/06/1039891。40L. Li, J. Liu, F. Yu等人。BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 1000080图3. MVDI25K的类别。0图4. MVDI25K的注释。0图5. 多个对象。每个图像中每个对象的数量。0这给数据收集带来了挑战。通过观察,我们发现大多数滴虫细胞似乎具有类似的模式,例如纹理,颜色和形状,与背景中的其他细胞相似,即它们具有一定程度的隐匿性,这很容易使探测器混淆。更重要的是,通过数据注释,可以看到滴虫细胞通常具有以下具有挑战性的属性:(1)密集对象:单个图像中超过10个对象;(2)小对象:与其大背景相比太小;(3)遮挡/重叠:由于其他细胞或杂质的遮挡和多个细胞重叠而导致不完整的对象轮廓;(4)不规则形状:细胞包含微小部分(例如小尾巴)。因此,当使用深度模型来检测这种类型的细胞时,可能会成为一个棘手的问题。0为此,三唑嗪检测值得更多的努力,因此0我们为滴虫提供了细致的对象级注释。我们采用Photoshop作为注释工具来标记对象级掩模。通过这种方式,我们从912个滴虫图像中获得了总共2550个对象级注释。一些示例可以在图4(b)中看到。03.3. 数据集特征和统计0为了更深入地了解我们的MVDI25K,我们介绍了它的一些重要特征0以下是一些重要特征。03.3.1. 多个对象0在本文中,我们将多个对象定义为同一类型的细胞0一个图像中包含数量等于或大于两个的细胞。请注意,多对象值是某种类型对象的总数除以包含该对象的图像数。如图5所示,菌丝的多对象属性值为1.07,而其他细胞类别大于3。前三名是乳酸菌、红细胞和白细胞,分别为37.27、30.82和23.75。03.3.2. 小目标0绝对尺寸小于32×32,或者(b)宽度和高度小于整个图像宽度和高度的1/10的对象。一般来说,小目标很容易被嘈杂的背景所淹没。此外,对于深度模型,当网络逐渐变得更深时,其特征信息将消失,这使得许多深度模型被忽视。因此,小目标的检测是一个具有挑战性的问题。50L. Li, J. Liu, F. Yu等人 BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 1000080图6. 所提出的MVDI25K中小目标的属性分析。0图7. MVDI25K的注释。0我们在MVDI-25K中统计了这两个小目标属性0数据集,如图6(a)所示。它显示了绝对像素小于或等于1000的细胞数量。在提出的数据集中标记了总共51,549个小对象,占7.17%。图6(b)显示了每种类型细胞的平均面积和它们在一个图像中的平均比例。显然,除了菌丝、线索细胞和上皮细胞外,其他类别的细胞的面积比例远小于1%,即小对象的阈值。03.3.3. 分辨率分布0高分辨率图像通常为深度模型提供更多的对象细节0深度模型训练,从而有利于在测试时获得出色的检测性能[31]。在收集数据时,我们仔细调整了显微镜设置,以获得高分辨率的图像。图7(a)显示了我们数据集的分辨率分布。具体来说,图像的四个分辨率分别为:1536×1536,1536×2048,1792×1792,2064×3088,它们的比例分别为:30.03%,0.47%,42.94%,26.56%。03.3.4. 数据集拆分0为基于学习的深度模型训练提供大量的训练数据0方法,我们将25,708张图像分为训练集、验证集和测试集,比例为6:2:2。需要注意的是,不可能根据细胞类别来拆分数据集,然后从每个类别中随机选择,因为每个图像至少包含2或3类细胞。为了确保训练集、验证集和测试集的分布相同,我们首先选择包含最少细胞数(菌丝)的图像,然后随机选择。然后随机选择包含第二少细胞类别(滴虫)的图像。按照这个规则一直进行下去,直到所有类型的细胞都被拆分。图7(b)展示了不同细胞类别的最终拆分结果。因此,数据集的拆分满足了训练集、验证集和测试集的相同分布。04. 基准实验0基于建立的MVDI25K,我们系统地进行了基准实验0在两个关键任务上有10个代表性模型,分别是目标检测和目标分割。通过评估结果,我们进行了一些深入分析,并提出了一些有见地的结论,这些结论可能会激发进一步的研究。04.1. 目标检测实验04.1.1. 数据集设置0根据第3.3.4节中描述的数据分割规则,我们将整个图像分割为0整个图像分别分为15,428个训练集,5,143个验证集和5,137个测试集,并附带边界框的真值。04.1.2. 训练协议0在这个基准实验中,我们收集了三个发布的代码0代表性的目标检测模型,即YOLOv5-s,YOLOv5-m和YOLOv5-x [ 32],并使用MVDI25K的训练集对这些模型进行重新训练。图像设置为640×640作为模型输入。初始学习率为1e-2,GIoU损失增益为0.05,类损失增益为0.5。对于优化器,动量设置为0.937,权重衰减设置为0.0005。YOLOv5-s,YOLOv5-m和YOLOv5-x的批量大小分别设置为36,24和8。在NVIDIA GeForce RTX2080Ti上进行300个时期的总训练,内存为11 GB。04.1.3. 评估指标0我们应用三种广泛使用的指标来评估目标检测0性能。这些指标包括精度(P),召回率(A)和平均精度(mAP)。0�是准确率,即正确阳性的百分比0占所有检测到的正类的比例,即P=TP/(TP+FP)。P0.4640.4800.4070.4090.1980.6900.2670.4730.5960.6430.480YOLOv5-s [32]R0.8940.9660.9420.9500.4760.9820.8110.9150.9850.9610.956mAP@.50.8010.8820.8530.8600.3070.9640.5720.8250.9420.9360.872mAP@.5:.950.5600.5200.5400.5570.1850.8090.4170.5990.7150.7540.502P0.5020.5070.4490.4580.2020.7470.2870.5360.6480.6780.513YOLOv5-m [32]R0.9050.9710.9590.9670.5480.9760.8310.9080.9800.9570.957mAP@.50.8200.8910.8970.8990.3700.9650.5730.8400.9450.9390.879mAP@.5:.950.5880.5410.5900.6130.2430.8160.4300.6180.7320.7730.521P0.4930.5120.4760.4950.1830.7170.2630.5050.629.6570.487YOLOv5-x [32]R0.9190.9770.9710.9720.6190.9790.8430.9150.9830.9620.967mAP@.50.8370.9010.9200.9190.4340.9660.6050.8510.9470.9410.883mAP@.5:.950.6070.5610.6170.6400.2660.8190.4650.6500.7410.7820.532-𝑆𝛼 = 𝛼 ∗ 𝑆𝑜 + (1 − 𝛼) ∗ 𝑆𝑟,(1)𝑆𝑜 =2 ∗ 𝐸(𝑝𝑟𝑒)𝐸(𝑝𝑟𝑒)2 + 1 + 𝜎 + 𝑒,(2)𝑆𝑟 indicates that the four regions are cut into four regionsaccording to the position of the center of gravity, and the areaof the entire image occupied by the pixels of the four regions isused as the weight, and the weighted average of the structuresimilarities of the four regions is calculated.60L. Li, J. Liu, F. Yu等人。BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 1000080表2:我们MVDI25K数据集上目标检测的定量结果。 Cls1-10:Candida1,Candida2,Candida3,菌丝,上皮细胞,线索细胞,滴虫,白细胞,红细胞和乳杆菌。前三个性能最差的类别以红色、蓝色和绿色字体显示。0模型指标全部��� 1 ��� 2 ��� 3 ��� 4 ��� 5 ��� 6 ��� 7 ��� 8 ��� 9 ��� 100注意TP表示预测值和真实值都为1,FP表示真实值为0,预测值为1。0�是召回率,即正确阳性类的百分比0占所有真正阳性类的比例,即R=TP/(TP+FN)。注意FN表示真实值为1,预测值为0。0AP是P-R曲线下的面积,mAP是AP的平均值0每个类别的mAP@.5,其中‘‘.5’’表示判断IoU为正样本或负样本的阈值,以及mAP@0.5:0.95,这意味着在从0.5增加到0.95的一系列阈值下的AP平均值。04.1.4. 定量评估0如表2所示,从‘‘全部’’列可以看出,整体漏检率0出色的YOLOv5-x模型的检测率仅为8.1%(即1-91.9%),但其成本超过了YOLOv5-m模型。假阳性样本占50.7%(即1-49.3%),这意味着检测到的假阳性细胞数量几乎与真阳性细胞数量相同。事实上,在医学图像中准确识别细胞的要求相对较高。即使�和���已经达到了很高的水平,低�指标意味着太多的假阳性样本,这是医图像检测中一个非常重要但仍然具有挑战性的问题。0如表2所示,在所有评估项目中,第四(菌丝)0和第六类(线索细胞)是表现最差的两个类别。客观地说,在我们的MVDI25K数据集中,包含菌丝和线索细胞的图像数量非常少,特别是只有213张图像包含菌丝。对于第七类细胞(滴虫),由于图像数量较少,有时与白细胞的外观相似,这也是目标检测中的一个困难类别。众所周知,不同类型的对象在自然界中本来就是不均匀分布的。从这个实验中也可以看出,不平衡类别的目标检测是一个非常重要但具有挑战性的问题,值得进一步研究。04.1.5. 定性评估0图8显示了五个代表性的检测结果。在第一个0在第一行,左中的上皮细胞受到复杂背景的干扰,导致三个模型的检测失败。此外,三个模型误判其左侧细胞为滴虫。第二行包含两种典型的红细胞,暗侧和亮侧,以及完整和破碎的白细胞。同时,白细胞完整和破碎的形式。YOLOv5-m模型是最适合在图像的左上角检测多个白细胞。第三行的图像是存在大量乳杆菌的典型环境。从置信度的角度来看,YOLOv5-m的表现略优于YOLOv5-x。第四行图片的识别困难在于滴虫和一些白细胞的形态非常相似,尤其是右上角的三个相邻细胞。三个模型都无法完全准确地识别白细胞和滴虫。0可以完全准确地识别白细胞和滴虫。最后一个图像包含完整的上皮细胞和变形的上皮细胞。很难识别变形的上皮细胞,所有三个模型都错过了。04.2. 对象分割实验04.2.1. 数据集设置0在这个基准实验中,我们的数据集提供了总共2550个0从912张滴虫图像中获得了对象级别的注释。我们将这些图像分为730张用于训练和182张用于测试,并附带对象级别的ground-truth。04.2.2. 训练协议0在这项研究中,我们评估了最近发表的八个代表性0和最先进的深度模型用于对象分割或隐蔽对象检测,包括BASNet [ 33 ], CPD [34 ], SCRN [ 35 ], U 2 Net [ 36 ], F3Net [ 37 ], GateNet [ 38 ], PraNet [ 39 ],和 SINet [ 29 ]。我们收集了这些模型的发布代码,并在NVIDIA GeForce RTX2080TiGPU上对我们的数据集进行了50次epoch的重新训练。在训练阶段,批量大小设置为20,最大学习率为0.05。对于Adam优化器,动量为0.9,权重衰减为5e-4。当内存不足时,批量大小和epoch分别更改为10和100。04.2.3. 评估指标0为了提供全面的评估,使用了六种广泛使用的指标0用于定量比较提出的MVDI25K上的八个深度模型的对象分割,使用[39]提供的评估工具箱,包括结构相似性度量(� �,其中 �=0.5)[40],增强对齐度量(����� �和 �����),以及 � �度量(�� �, ����� �和 ���� �)。0意识和区域意识方面,从ground-truth(GT)图和预测图中的对象之间计算结构相似性:0其中L. Li, J. Liu, F. Yu et al.BenchCouncil Transactions on Benchmarks, Standards and Evaluations 1 (2021) 100008Fig. 8. Qualitative examples of object detection with three representative YOLO models evaluated on our MDVI25K dataset.- E-Measure is a cognitive vision-inspired metric, which mea-sures both the local and global similarities between two binarymaps [41]. It combines local pixel values and image-level aver-age values to capture both image-level statistics and local pixelmatching information. Specifically, it is defined as:𝐸𝜙 =1𝑤 ∗ ℎ𝑤∑𝑥=1ℎ∑𝑦=1𝜙𝐹𝑀(𝑥, 𝑦)(3)where w and h are the width and the height of the map,respectively. 𝜙𝐹𝑀 = 𝑓(𝜉𝐹𝑀), the value of 𝜉𝐹𝑀 depends on thesimilarity between feature map and ground truth, 𝑓(𝑥) = 14 (1 +𝑥)2. The rest of the specific derivation procedure is given by [41].Here, we introduce mean/maximal E-measure, i.e., 𝑚𝑒𝑎𝑛𝐸𝜙 and𝑚𝑎𝑥𝐸𝜙, to provide a more comprehensive evaluation.- F-measure is essentially a re
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功