没有合适的资源?快使用搜索试试~ 我知道了~
CAMEL:一种用于组织病理学图像分割的弱监督学习框架
10682CAMEL:一种用于组织病理学图像分割的弱监督学习框架徐刚1,宋志刚2,孙卓3,顾俊3,杨哲1,刘灿成3,王书豪1,3,马建鹏4,徐伟11清华大学2中国人民解放军总医院3全景图4复旦大学xug14@mails.tsinghua.edu.cn,songzhg301@139.com,{卓.孙,顾俊,刘灿成,王毅}@ thorough.ai,jpma@fudan.edu.cn,{yangzhe2017,weixu}@ tsinghua.edu.cn摘要组织病理学图像分析在肿瘤诊断和治疗中起着至关重要的作用。为了自动分割癌变区域,全监督分割算法需要在像素级进行劳动密集型和耗时的在这项研究中,我们提出了CAMEL,一个弱监督学习框架,组织病理学图像分割只使用图像级标签。使用基于多实例学习(MIL)的标签丰富,CAMEL将图像分割为网格实例并自动生成实例级标签。在标签富集之后,实例级标签被进一步分配给对应的像素,从而产生近似的像素级标签并且使得分割模型的完全监督训练成为可能。CAMEL在CAMELYON16和结直肠腺瘤数据集上的实例级分类和像素级分割此外,自动标记方法的通用性可能有利于未来的弱监督学习研究的组织病理学图像分析。1. 介绍组织病理学图像分析是癌症检测和诊断的金标准。近年来,深度神经网络的发展在自动组织病理学图像分类和分割方面取得了许多突破[15,18,19]。这些方法高度依赖于大量像素级标签的可用性,这些标签的获得是劳动密集型和耗时的。*通讯作者。泰恩为了缓解对这些细粒度标签的需求,人们已经提出了许多弱监督学习算法,仅需要图像级的粗粒度标签[13,25,26]。但由于缺乏足够的监管信息,准确性远低于其完全监管的同行。改进弱监督学习算法性能的一种方法是增加更多的监督约束。对于自然图像,一些研究[8,14,16]已经证明了在其弱监督学习过程中添加边界框或人为涂抹信息CDWS- MIL [13]还显示了弱监督组织病理学分割的人工区域约束的优势。然而,仍然需要花费大量的努力来获得人工约束,特别是在组织病理学中,只有训练有素的病理学家才能区分癌性区域和正常区域。因此,在建立分割模型之前自动丰富标记信息而不是引入人工约束对于弱监督学习至关重要。在本文中,我们提出了一个弱监督学习框架,CAMEL,用于组织病理学图像分割,只使用图像级标签。CAMEL包括两个步骤:标记富集和分割(图1)①的人。CAMEL没有引入更多的监督约束,而是将图像分割成格化实例,并在标签富集步骤中自动生成它们的实例级标签,这可以被视为弱监督分类问题的解决方案。在标签富集步骤中,我们使用组合的多实例学习(cMIL)方法来构建高质量的实例级数据集,该数据集具有来自原始图像级数据集的实例级标签。然后,我们训练一个完全监督的分类10683M图1.CAMEL的系统架构CAMEL包括两个基本步骤:标签富集和分割。M和m分别表示N是cMIL的比例因子,其中N=M。使用此实例级数据集创建模型。 一旦模型被训练,我们将原始图像级数据集中的图像拆分为网格实例,并使用该模型生成它们的标签。在标签丰富之后,实例级标签被直接分配给它们对应的像素,产生近似的像素级标签,并使得分割模型的完全监督训练成为可能。我们在CAMELYON 16 [1,5]和结直肠腺瘤数据集上进行了实验,实例级分类和像素级分割的结果与其完全监督的对应结果可本文的贡献可概括如下:• 我们提出了一个弱监督学习框架,CAMEL,用于组 织病 理学 图 像分 割, 只 使用 图像 级 标签 。CAMEL自动通过从图像级标签生成实例级标签来丰富图像的监督信息,并在实例级分类和像素级分割中实现与完全监督基线相当的性能。• 为了构建一个高质量的实例级数据集,用于完全监督学习,我们引入了一种cMIL方法,该方法结合了两个互补的实例数据中的选择标准(Max-Max和Max-Min)准备过程,以平衡构建的数据集中的数据分布。• 为了充分利用原有的图像级监控信息,本文提出了级联数据增强方法,并通过增加图像级约束来提高CAMEL的性能更进一步。• 到促进的研究在组织病理学ogy字段,我们的结直肠腺瘤数据集将 在https://github.com/ThoroughImages/CAMEL 上公开提供。2. 相关工作2.1. 计算机视觉在计算机视觉中,人们已经提出了许多弱监督算法[3,4,9,10,12,22,23],对象检测和语义分割。然而,在组织病理学图像分析场景中,与通常在自然图像中观察到的情况相比,前景(癌区域)和背景(非癌区域)之间的形态外观差异不太显著[17]。此外,癌变区域是分离的,并且它们的形态通常是多种多样的。因此,基于对抗擦除[22]或种子生长[4]的方法可能不适合。10684M2.2. 组织病理学图像2.2.1实例级分类MIL广泛应用于大多数弱监督方法[13,25,26]。然而,尽管MIL取得了巨大成功,但许多解决方案需要预先指定的特征[21,26],这需要数据特定的先验知识并限制了一般应用。Xu et al.[25]提出通过深度神经网络自动提取特征表示。然而,特征工程和MIL的分离使得训练过程复杂化.在cMIL中,训练过程是端到端的,没有刻意的特征提取和特征学习,使训练过程直接向前。2.2.2像素级分割近年来提出了用于组织病理学图像分割的弱监督学习[13]。通过引入人工癌症区域约束实现了最佳性能。在CAMEL中,标签丰富步骤生成具有更详细监督信息和更少标记负担的实例级标签。此外,与CDWS-MIL[13]相比,CAMEL中的分类器不需要预训练,因此增加了选择网络架构的灵活性。3. 方法3.1. 标签富集由于缺乏足够的监督信息,简单地使用图像级标签不足以训练分割模型。因此,在构建分割模型之前,我们通过从原始图像级标签生成实例级标签来执行标签富集①的人。3.1.1组合多示例学习CAMEL的有效性密切依赖于我们自动丰富的实例级标签的质量,这也可以被视为只有图像级标签的弱监督实例级分类问题。在这里,我们的目标是将这种弱监督学习问题转化为完全监督的实例级分类问题,并受益于许多现有的成熟的完全监督学习方法。我们引入了一种新的解决方案,称为组合多实例学习(cMIL)。将图像分割成N×N个大小相等的格点实例。在这里,我们考虑来自相同图像的实例作为在相同的包中。在cMIL中,两个具有不同实例的基于MIL的分类器,选择标准(最大-最大和最大-最小)用于选择图2.cMIL的训练过程M和m分别表示图像和实例的大小N是cMIL的比例因子,其中N=M,这里我们要求M可被m整除。我们首先将图像分割成大小相等的N×N个所选实例可以被认为是其对应图像的代表,因此它们拥有相同的类标签。我们使用两个实例选择标准(Max-Max和Max-Min)分别训练两个MIL模型。图3.两个实例选择标准Max-Max和Max-Min背后的直觉。红色和绿色圆圈分别表示CA和NC实例。我们使用三角形来表示选定的实例,使用浅色圆圈来表示未选定的实例。每条虚线表示分类器的决策边界,该分类器是用选定的实例训练每个椭圆代表一个图像(或MIL中的一个袋子)。结合Max-Max和Max-Min的cMIL实现了更好的决策边界。实例来构建实例级数据集(图2)的情况。所选实例可以被认为是其对应图像的代表,这决定了图像类别(类似于注意力机制[24])。如果图像具有癌变(CA)区域,则我们可以推断至少一个实例是癌变的。另一方面,如果图像的标签是非癌性的(NC),则其中的所有实例都是非癌性的。对于CA和NC图像,Max-Max选择具有最大CA响应的实例。如图3(a)和(b),培训期间10685阶段,在NC区域中,Max-Max准则将选择具有最大CA响应的实例作为NC实例,该实例与CA具有最高的相似性。因此,使用这些数据训练的模型将给出CA方向的决策边界,这将导致具有较低响应的CA实例的错误分类(如浅红色圆圈所示)。例如,具有与NC相似的形态外观的CA实例可能被错误分类。Max-Min作为一种对策,选择CA图像的CA响应最高的实例和NC图像的响应最低的实例。如图3(c),Max-Min倾向于具有与Max-Max相反的效果因此,在cMIL中,我们将这两个标准结合起来,以减少分布偏差问题,并获得更平衡的实例级数据集,用于完全监督学习(见图2)。3(d))。值得注意的是,对于NC图像,虽然每个实例都是NC,但我们只使用选定的实例,以避免数据不平衡问题。我们选择ResNet-50 [11]作为分类器。这两个基于MIL的分类器在相同的配置下分别训练(图2)。2):在前向传递中,我们使用Max-Max(或对于其他分类器使用Max-Min)准则来基于它们的预测从每个包中选择一个实例,并且所选实例的预测被视为图像的预测。在反向传播中,我们使用图像级标签和所选实例的预测之间的交叉熵损失来更新分类器每个分类器的损失函数定义如下:ΣLoss=−(yjlogpj+(1−yj)log(1−pj)),(一)J其中p∈j=Scrite rion({f(bi)}),bi是图像j中的实 例 , f 是 分 类 器 , S 准 则 ∈ {Max-Max , Max-Min}。Scriterion使用定义的crite选择目标实例rion,yj是图像级标签。对于最大-最大标准:S Max−Max({f(b i)})= max{f(bi)}。(二)我对于最大-最小标准:.max{f(bi)}ify= 1图4.级联数据增强。除了直接使用cMIL(N)构建m×m数据集之外,我们还可以首先使用cMIL(N1)构建中间m ′ ×m ′数据集,然后构建以级联方式使用cMIL(N2)的最终m×m数据集(N=N1 × N2)。3.1.2重新培训和重新贴标一旦准备好实例级数据集,我们就能够以完全监督的方式训练实例分类器我们在这一步中使用的分类器与cMIL(ResNet-50)中的分类器具有相同的架构,我们将这一步称为重新训练。然后,我们将原始图像分割成网格化的实例,并使用训练好的实例级分类模型对其进行重新标记(图1)。①的人。 对于每个图像,我们从单个图像级标签中获得N2个3.2. 分割利用丰富的监督信息,实例级标签被直接分配给相应的像素,产生近似的像素级标签。因此,我们可以使用开发良好的架构(如DeepLabv 2 [6,7]和U-Net[20])以完全监督的方式训练分割模型为了防止模型在近似标签中学习到类似棋盘的伪影,在训练过程中,我们通过将从原始训练集随机裁剪的较小图像及其相应的掩码馈送到分割模型中来执行数据增强。3.3. 进一步改进富集标记的粒度由比例因子N确定;较大的比例因子导致更精细的标记。然而,作为折衷,较大的比例因子将导致严重的图像信息丢失。为了解决这个问题,我们SMax−Min({f(bi)})=我min{f(bi)}ify= 0我.(三)建议级联数据增强以恢复潜在的损失,并添加图像级约束以更好地利用训练后,我们再次将相同的训练数据输入到两个训练好的分类器中,并在相应的标准下选择实例,然后将预测视为它们的标签。我们将两个训练好的分类器选择的实例结合起来,构建最终的完全监督的实例级数据集。注意,我们丢弃了那些预测标签与其对应的图像级标签不同的潜在混淆样本。监督信息。3.3.1级联数据增强每个实例选择准则只从图像中选择一个实例来构造实例级数据集,这只占用了图像的一小部分,导致从10686原始图像级数据集。为了恢复这种信息损失并增加实例级数据集的数据多样性,我们进一步引入级联数据增强方法,通过两个并发路由生成实例级数据集(图11)。4).这里,我们使用cMIL(N)来表示具有缩放因子N的cMIL。要导出比例因子N的标记实例,我们可以使用cMIL(N)或cMIL(N1)和cMIL(N2)背靠背,其中N=N1×N2。这两个数据来源是结合在一起的-提前输入到分割模型中。3.3.2使用图像级约束进行训练为了最大化原始图像级监督信息的效用,在再训练步骤中,我们可以进一步添加原始图像级数据作为经过分类器的一个附加输入源。如图5、在Max-Max和Max-Min准则下对实例级施加图像级约束,总损失被定义为再训练损失和约束损失之和:Loss=w1·Loss constraint+w2·Loss retrain(4)其中w1和w2是两个损失的权重。我们设定在我们的实验中,w1=w2Σ表1. CAMELYON 16测试集上标签富集的实例级分类性能320×320(%)灵敏度特异性精度公司简介90.097.494.5麦克斯-麦克斯56.998.181.9Max-Min82.082.682.3再训练(cMIL)88.794.692.3重新训练(受约束)84.598.492.9160×160(%)灵敏度特异性精度公司简介89.095.092.8麦克斯-麦克斯44.999.379.3Max-Min87.786.586.9再训练(cMIL)85.590.188.4重新训练(受约束)75.298.589.9级联87.792.090.4级联(约束)83.696.491.7此外,我们还构建了另外两个包含320×320和160×160实例的完全监督训练集,以帮助构建完全监督基线。测试集包括160个WSI(49个包含CA),我们拆分并选择所有3,392个1,280 × 1,280 CA补丁,然后我们随机抽样NC补丁,以匹配的数量。的将 1 , 280 × 1 , 280 个贴 片 进 一 步 分 成 320×320 和160×160的尺寸,以测试具有相应输入尺寸的模型。补丁和实例被标记为CA,如果包含任何癌变区域。否则,标签为NC。损失约束=−S标准(ylogp+(1−y)log(1−p)),(五)4.2. 执行我们应用了旋转、镜像和缩放(在其中pi=Scriterion({f(bi)}),bi表示所选实例,f是图像级约束路径,S准则∈{Max-Max,Max-Min},y是图像级标签。Σ1.0x和1.2x),以增加训练数据。所有模型都在TensorFlow [2]中实现,并在4个NVIDIA GTX1080TiGPU上训练。cMIL中的实例分类器和再训练步骤都使用Adam优化器以0.0001的固定学习率进行在损失再培训=−(yjlogyj+(1−yj)log(1−yj)),(6)JcMIL,批次大小设置为4(一个映像级修补程序在每个GPU上)。在重新训练步骤中,批次大小设置为40(每个GPU上有10个实例在分段期间,其中y=g(nj),nj表示输入实例,g是retrain路由,yj是实例级标签。由于两条路由共享同一个网络,我们有f≡g。4. 实验4.1. 数据准备我 们 在 CAMELYON 16 [1 , 5] 上 进 行 了 实 验 ,CAMELYON 16是一个公共数据集,包含400个淋巴结切片的苏木精-伊红(HE)染色全载玻片图像(WSI)在本研究中,与CDWS-MIL [13]相同,我们认为WSI中20倍放大率下的1,280 × 1,280个斑块作为图像级数据。 CAMELYON 16的训练集-包含240个WSI(110个包含CA),我们将其分为5011个在阶段,DeepLabv 2和U-Net都使用Adam优化器进行训练,固定学习率为0.001,批量大小为24(每个GPU上有6张图像由于限制-利用GPU资源,我们使用从原始1280×1280训练集中随机裁剪的640×640图像及其相应的掩码来训练分割。站模型4.3. 标记富集的性能如表1和Fig. 6示出了根据图1。3,在使用Max-Max选择的数据上训练的模型倾向于具有相对低的灵敏度和高的特异性。相反,Max-Min倾向于帮助实现相对高的灵敏度和低特异性。属性选择的数据CA和96,496 NC1,280 × 1,280个贴片,我们超过-对CA补片进行采样,以匹配NC补片的数量我们排除了测试114,因为标签重复[15]。10687图5.图像级约束下的模型训练说明。在重新训练步骤中考虑来自原始图像级数据的监督信息。图6. CAMELYON 16测试集上的实例级分类结果。与地面实况相比,使用Max-Max选择的数据训练的模型倾向于预测更少的CA,而使用Max-Min预测更多的CA再训练(cMIL)实现了更合理的权衡和更好的性能。两个准则相结合,该模型可以实现更合理的权衡和更好的性能。通过使用级联数据增强方法和增加图像级约束,进一步提高了模型为了比较我们的模型和完全监督基线(FSB)之间的性能,我们使用相同的分类器架构,tecture(ResNet-50)。在320×320和160×160测试集上,实例分类精度与完全监督基线相当,分别仅低1.6%和1.1%级联数据增强的改进显示了在构建完全监督的实例级数据集时从图像信息膨胀中恢复的有效方法,并表明其在均匀标签富集上的潜力更细的粒度。它还暗示了具有不同比例因子的cMIL的鲁棒性。增加图像级约束的改进体现了图像级和实例级监督信息相结合的优点。我们进一步验证了我们最好的模型在320×320和160×160训练集上的实例级分类性能(表2),它们分别达到95.5%和94.6%的准确率。标记富集后,CAMEL成功地将原始图像级数据集中图像的监督信息从单个图像级标签丰富到N2实例级粒度,并具有较高的质量。10688表2.通过CAMELYON 16训练集上的分类性能测量的原始图像级数据集的自动丰富实例级标签的质量N2灵敏度特异性精度160×160320×320641689.991.494.795.794.695.5图7. CAMEL和其他方法在CAMELYON 16测试集上的像素级分割结果(DeepLabv2)。4.4. 分割性能在标签富集之后,训练集的实例级标签被分配给相应的像素以产生近似的像素级标签。在这一点上,我们可以以完全监督的方式训练分割模型。我们使用ResNet-34 [7]和U-Net [20]测试了DeepLabv 2的性能如表3所示,我们使用灵敏度、特异性、准确性和交并(IoU)来衡量像素级分割性能。为了进行比较,完 全 监 督 的基 线 像 素 级 FSB 的 性 能 和 弱监 督 方 法WILDCAT [9]、DWS-MIL和CDWS-MIL [13]的性能分别为也被列入。在他们的论文[9]中,WILDCAT用于自然图像,DWS-MIL和CDWS-MIL [13]用于用于组织病理学成像。在这里,我们添加了另一个基线模型(图像级FSB),以显示标签富集对分割性能的重要性。图像级FSB是用其标签通过将图像级标签直接分配给像素而生成的数据来训练的,而像素级FSB是使用原始像素级地面实况来获得的CAMEL的性能优于图像级FSB、WILDCAT、DWS-MIL和CDWS-MIL,甚至可以与像素级FSB相媲美。在有效利用监督信息的帮助下,更细的粒度带来更好的分割性能此外,在标记富集步骤中,如果实例像素包含任何癌性区域,则将实例像素标记为CA。这可能会导致过度标签问题。如图7,较小的实例大小通过构造更精细的像素级标签来解决这个问题,证明了更精细标签的有效性以及在更精细粒度上改进标签富集的潜力。在CAME-LYON 16测试集上进一步验证了模型的有效性。图8示出了一些示例。4.5. 骆驼的概述为了评估CAMEL的通用性,我们在中国人民解放军总医院病理科的病理学家收集并标记的包含177个WSI ( 156 个 包 含 腺 瘤 ) 的 如 表 4 和 Fig. 9 显 示 ,CAMEL consideration实现了与完全监督基线相当的性能。5. 结论组织病理学图像的计算机辅助诊断可以提高诊断的准确性,同时减轻病理学家的负担在这项研究中,我们提出了一个弱监督学习框架,CAMEL,组织病理学图像分割只使用图像级标签。CAMEL自动丰富监督信息,从图像级到实例级,具有高质量,并实现与其完全监督的同行可比的分割结果更重要的是,自动标记方法可以推广到其他弱监督学习研究的组织病理学图像分析。在CAMEL中,获得的实例级标签被直接分配给相应的像素并在分割任务中用作掩模,这可能导致过度标记问题。我们将通过以下方式应对这一挑战:掩模边界细化[3,4]在未来的工作。谢谢。作者要感谢高翔,王朗,王存光,潘立超,丁方军在全面图像的数据处理和有益的讨论。本研究得到了国家自然科学基金(No.10689表3.CAMELYON 16测试集上的像素级分割性能DeepLabv2(%)灵敏度特异性精度F1得分IOU像素级前端总线87.999.195.392.686.3图像级FSB89.288.788.984.472.9骆驼(160)92.795.794.792.185.4骆驼(320)94.793.894.191.584.3U-Net(%)灵敏度特异性精度F1得分IOU像素级前端总线87.898.294.791.884.8图像级FSB95.582.186.682.870.6骆驼(160)94.794.194.391.884.8骆驼(320)94.794.094.291.784.7其他方法(%)灵敏度特异性精度F1得分IOUWILDCAT(w/ResNet-50)69.693.885.776.662.0DWS-MIL(带ResNet-50)86.093.490.986.476.0CDWS-MIL(带ResNet-50)87.293.891.587.477.6图8.CAMELYON 16 WSI上的实例级分类和像素级分割(DeepLabv2)结果的一些示例表4.结肠直肠腺瘤数据集的模型性能实例级分类(%)召回精度精度公司简介81.190.087.1再训练(cMIL)84.981.083.8公司简介80.787.687.0再训练(cMIL)80.985.186.0像素级分割(%)召回精度F1得分像素级前端总线86.189.087.5骆驼(160)89.785.087.3骆驼(320)95.478.586.161532001 ) 、 清 华 大 学 创 新 研 究 计 划 ( No.20151080475 ) 、 上 海 市 科 技 重 大 专 项 ( 编 号 :20151080475)。2018SHZDZX01)和ZJLab。图9. CAMEL对结直肠腺瘤数据集的像素级分割结果(DeepLabv2)。10690引用[1] CAMELYON 2016年。https://camelyon16.grand-challenge.org,2016年。[2] Mart´ın Abadi, Paul Barham , Jianmin Chen , ZhifengChen , Andy Davis , Jeffrey Dean , Matthieu Devin ,Sanjay Ghe-mawat,Geoffrey Irving,Michael Isard,etal. Tensorflow:一个大规模机器学习系统。在OSDI,第16卷,第265-283页[3] Jiwoon Ahn,Sunghyun Cho,和Suha Kwak.具有像素间关系的实例分割的弱监督学习在IEEE计算机视觉和模式识别会议论文集,第2209-2218页[4] 安智云和郭淑华。学习像素级语义亲和力与图像级监督弱监督语义分割。在IEEE计算机视觉和模式识别会议论文集,第4981-4990页[5] Babak Ehteshami Bejnordi、Mitko Veta、Paul JohannesVan Diest 、Bram Van Ginneken 、Nico Karssemeijer、Geert Litjens 、 Jeroen AWM Van Der Laak 和 CAME-LYON 16财团。深度学习算法检测乳腺癌女性淋巴结转移的诊断评估。JAMA,318(22):2199,2017.[6] Liang-ChiehChen , GeorgePapandreou , IasonasKokkinos,Kevin Murphy,and Alan L Yuille.使用深度卷积网络和完全连接的CRF进行语义图像分割。计算机科学,(4):357[7] Liang-ChiehChen , GeorgePapandreou , IasonasKokkinos , KevinMurphy , andAlanLYuille.DeepLab:使用深度卷积网络、无纹理卷积和全连接CRF进行语义图像分割。IEEE Transactions on PatternAnalysis and Machine Intelligence,40(4):834-848,2018。[8] 戴季峰、何开明、孙建。BoxSup:利用边界框来监督卷积网络进行语义分割。在Proceedings of the IEEEInternational Conference on Computer Vision,第1635[9] Thibaut Durand,Taylor Mordan,Nicolas Thome,andMatthieu Cord. WILDCAT:用于图像分类、逐点定位和分割的深度卷积神经网络的弱监督学习。在Proceedingsof the IEEE Conference on Computer Vision and PatternRecognition,第642-651页[10] 伟峰阁、司北央、益州羽。基于弱监督学习的多标记分类、目标检测和语义分割的多证据过滤与融合。InProceedings of the IEEE Conference计算机视觉和模式识别,第1277- 1286页,2018年。[11] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在Proceedings ofthe IEEE Conference on Computer Vision and PatternRecognition,第770-778页[12] 黄子龙、王兴刚、王佳思、刘文宇和王京东。基于深度种子区域生长的弱监督语义分割网络。法律程序IEEE计算机视觉和模式识别会议,第7014-7023页,2018年。[13] Zhipeng Jia , Xingyi Huang , Eric I-Chang Chao , andYan Xu.组织病理学图像的约束深度弱监督分割。IEEE医学成像学报,36(11):2376[14] Anna Khoreva 、 RodrigoBenenson 、 JanHendrikHosang、Matthias Hein和Bernt Schiele。简单做到:弱监督实例和语义分割。在IEEE计算机视觉和模式识别会议论文集,第876-885页,2017年[15] 伊丽和魏平。神经条件随机场在肿瘤转移检测中的应用arXiv预印本arXiv:1806.07064,2018。[16] Di Lin,Jifeng Dai,Jiaya Jia,Kaiming He,and JianSun. ScribbleSup:用于语义分割的Scribble-supervised卷积 网 络 。 在 Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,pages 3159[17] Huangjing Lin,Hao Chen,Simon Graham,Qi Dou,Nasir Rajpoot , and Pheng-Ann Heng.Fast Scannet : 快速、密集分析用于癌症转移检测的多千兆像素全载玻片图 像 。 IEEE Transactions on Medical Imaging , 38(8):1948[18] YunLiu , Krishna Gadepalli , Mohammad Norouzi ,George E Dahl , Timo Kohlberger , Aleksey Boyko ,Subhashini Venu- gopalan,Aleksei Rumfeev ,Philip QNelson,Greg S Cor- rado,et al.在十亿像素病理学图像上检测癌症转移。arXiv预印本arXiv:1703.02442,2017。[19] Anant Madabhushi和George Lee。数字病理学中的图像分析和机器学习:挑战与机遇。医学图像分析,33:170[20] Olaf Ronneberger,Philipp Fischer,and Thomas Brox. U-Net:用于生物医学图像分割的卷积网络。医学图像计算和计算机辅助干预国际会议,第234施普林格,2015年。[21] 保罗·维奥拉,约翰·C.普拉特和查章。多实例增强用于对象检测。神经信息处理系统国际会议,第1417-1424页,2005年[22] Wei Yunchao,Jiashi Feng,Xiaodan Liang,Ming-MingCheng,Yao Zhao,and Shuicheng Yan.使用对抗性擦除的对象区域挖掘:一个简单的分类到语义分割的方法。在IEEE计算机视觉和模式识别会议论文集,第1568-1576页[23] Yunchao Wei,Xiaodan Liang,Yunpeng Chen,XiaohuiShen,Ming-Ming Cheng,Jiashi Feng,Yao Zhao,andShuicheng Yan.STC:一个从简单到复杂的弱监督语义分 割 框 架 . IEEE Transactions on Pattern Analysis andMachine Intelligence,39(11):2314[24] Tianjun Xiao , Yichong Xu , Kuiyuan Yang , JiaxingZhang,Yuxin Peng,and Zheng Zhang.两级注意力模型在用于细粒度图像分类的深度卷积神经网络中的应用。InProceedings of the10691IEEE计算机视觉和模式识别会议,第842-850页[25] Yan Xu,Tao Mo,Qiwei Feng,Peilin Zhong,MaodeLai,and Eric I-Chang Chao.用于医学图像分析的多实例学 习 的 特 征 表 示 的 深 度 学 习 。 IEEEInternationalConference on Acoustics,Speech and Signal Processing,第1626-1630页[26] Yan Xu , Jun-Yan Zhu , Eric I-Chang Chao , MaodeLai,and Zhuowen Tu.弱监督组织病理学癌症图像分割和分类。医学图像分析,18(3):591
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功