没有合适的资源?快使用搜索试试~ 我知道了~
1基于学习变换的单次医学图像分割赵美xamyzhao@mit.eduGuhaBalakrishnan MITbalakg@mit.eduFre'doDurandMITfredo@mit.edu约翰五世Guttag MITguttag@mit.edu阿德里安五世Dalca MIT,MGHadalca@mit.edu摘要图像分割是许多医学应用中的一项重要任务。基于卷积神经网络的方法达到了最先进的精度;然而,它们通常依赖于大型标记数据集的监督训练。标记医学图像需要大量的经验和时间,并且用于数据增强的典型的手动调整方法无法捕获这种图像中的复杂变化。我们提出了一种自动化的数据增强方法合成标记的医学图像。我们证明了我们的方法对分割磁共振成像(MRI)脑扫描的任务我们的方法只需要一个单一的分割扫描,并利用其他未标记的扫描在半监督的方法。我们从图像中学习一个变换模型,并使用该模型和标记的示例来合成附加的标记示例。每个变换由空间变形场和强度变化组成,能够合成复杂的效果,例如解剖结构和图像采集过程中的变化。我们表明,这些新的例子训练一个监督分割器提供了显着的改进,国家的最先进的方法,一次性生物医学图像分割。1. 介绍语义图像分割对于许多生物医学成像应用至关重要,例如执行人口分析、诊断疾病和规划治疗。当有足够的标记数据可用时,基于监督深度学习的分割方法会产生最先进的结果。然而,获得医学图像的手动分割标签需要相当多的专业知识和时间。在大多数临床图像数据集中,存在非常图1:生物医学图像通常在解剖结构、对比度和纹理方面差异很大与其他一次性分割方法(底行)相比,我们的方法能够更准确地分割解剖结构少量手动标记的图像。由于机器和机构之间的图像采集程序存在差异,可能会导致分辨率、图像噪声和组织外观存在较大差异,从而加剧了有限标记数据的问题[45]。为了克服这些挑战,许多监督生物医学分割方法专注于手工设计的预处理步骤和架构[53,57]。使用手动调整的数据增强来增加训练示例的数量也很常见[2,55,57,63,65]。数据增强功能(如随机图像旋转或随机非线性变形)易于实现,并且在某些情况下可有效提高分割精度[55,57,63,65]。然而,这些函数模拟真实变化的能力有限[26],并且对参数的选择高度敏感[25]。我们通过学习合成多样化和现实的标记示例来解决有限标记数据的挑战。我们的数据增强新方法利用了未标记的图像。使用基于学习的配准方法,我们对空间和外观变换集进行85438544数据集中图像之间的关系。这些模型捕获了未标记图像中的解剖学和成像多样性。我们合成新的例子采样transformations和应用它们到一个单一的标记的例子。我们证明了我们的方法的实用性的任务上的一次性分割的脑磁共振成像(MRI)扫描。我们使用我们的方法来合成新的标记训练示例,从而能够训练监督分割网络。该策略优于最先进的一次性生物医学分割方法,包括单图谱分割和手动调整数据增强的监督分割。2. 相关工作2.1. 医学图像分割我们专注于脑MR图像的分割,这是具有挑战性的几个原因。首先,人脑表现出显著的解剖学变化[28,59,76]。其次,MR图像强度可能因受试者特定噪声、扫描仪协议和质量以及其他成像参数而变化[45]。这意味着组织类别可以在图像上以不同的强度出现许多现有的分割方法依赖于扫描预处理来减轻这些强度相关的挑战。预处理方法的运行成本可能很高,开发用于真实数据集的技术是一个活跃的研究领域[14,73]。我们的增强方法从另一个角度解决了这些与强度相关的挑战:它不是消除强度变化,而是使分割方法对MRI扫描中的自然变化具有鲁棒性。大量经典分割方法使用基于图谱或图谱引导的分割,其中使用变形模型将标记的参考体积或图谱与目标体积对齐,并且使用相同的变形来传播标记[6,13,22,32]。当多个图谱可用时,它们各自与目标体积对齐,并且融合扭曲的图谱标签[36,41,68,78]。在基于图谱的方法中,受试者之间的解剖学变化由变形模型捕获,并且强度变化的挑战使用预处理的扫描或强度鲁棒度量(诸如归一化互相关)来缓解。然而,组织外观的模糊性(例如,不清晰的组织边界、图像噪声)仍然会导致不准确的配准和分割。我们通过在不同的现实例子上训练分割模型来解决这个限制,使得分割器对这种模糊性更加鲁棒。我们专注于单一图谱,但如果有多个分段检查-ple是可用的,我们的方法可以利用它们。近年来,生物医学分割的监督学习方法减轻由于需要大型标记的训练数据集,这些方法使用数据增强以及手工设计的预处理步骤和架构[2,40,53,57,63,65,82]。还提出了半监督和无监督方法来应对小训练数据集的挑战。这些方法不需要成对的图像和分割数据。相反,他们利用分割的集合来构建解剖先验[21],训练对抗网络[39],或训练新的语义约束[29]。在实践中,图像的集合比分割更容易获得。而不是依靠Segmen-我们的方法利用了一组未标记的图像。2.2. 空间和外观变换模型形状和外观的模型已被用于各种图像分析。参数空间变换模型已被用于对齐和分类手写体,十位数[31,44,50]。 在医学图像配准中,利用空间形变模型建立语义模型,图像之间的一致性。这个成熟的领域涵盖了基于优化的方法[4,7,67,70],最近基于学习的方法[8,9,20,42,62,72,80]。许多医学图像配准方法集中于强度归一化图像或强度无关的目标函数,并且没有明确地说明图像强度的变化。对于非标准化图像,强度变换模型已用于从MRI中去除偏置场效应[44,79]。空间和外观变换模型已被一起使用,以注册的对象,不同的形状以及纹理。许多作品建立在可变形模型[38]或主动外观模型(AAM)[15,16]的框架上,其中构建了形状和纹理AAM已用于定位解剖标志[17,58]并进行分割[52,56,77]。我们通过使用卷积神经网络来学习非约束空间和强度变换的模型,从而建立这些概念我们不是为了注册或分割的最终目标而学习变换模型正如我们在实验中所示,以这种方式增强分割器2.3. 自然图像少镜头分割是语义分割和视频对象分割中的一个具有挑战性的任务。现有的方法主要集中在自然图像。用于少量语义分割的方法结合了来自待分割类的原型示例的信息[24,69]。少镜头视频分割经常通过将每个帧中的对象与标记的参考帧对齐来实现[37,75]。其他方法利用大量8545阿特拉斯山脉1)学习空间变换模型阿特拉斯山脉2)学习外观变换模型空间外观变换矩阵CNN变换矩阵CNN未标记受试者…经纱反翘曲未标记主题���…+列车对齐训练以匹配3)示例转换4)合成训练图像和分割图采样的空间目标值阿特拉斯山脉采样的空间合成图像��� (���,���)变换矩阵()+经纱阿特拉斯山脉了解到空间变换模型外观采样空间采样transform( )变换取样外观取样外观目标值了解到外观变换模型变换Atlas标签合成标签(,)���经纱图2:所提出方法的概述。我们学习独立的空间和外观变换模型来捕获图像数据集中的变化。然后,我们使用这些模型来合成一个标记的例子的数据集。该合成数据集用于训练监督分割网络。诸如对象外观[11]之类的补充信息的标记数据集,或者包括诸如人类输入[60]之类的附加医学图像提出了与自然图像不同的挑战;例如,与自然图像中的对象之间的差异相比,组织类别之间的视觉差异非常微妙2.4. 数据增强在基于图像的监督学习任务中,通常使用简单的参数化变换(例如旋转和缩放)来执行数据扩充。对于医学图像,随机平滑流场已用于模拟解剖结构变化[51,63,64]。这些参数化变换可以减少过拟合并提高测试性能[34,43,51,63,64]。然而,这些变换赋予的性能增益随着变换函数和参数设置的选择而变化[25]。最近的工作提出了从数据学习数据Hauberg等人。[31]专注于对MNIST数字进行分类的数据增强他们学习特定于数字的空间变换,并对训练图像和变换进行采样,以创建旨在提高分类性能的新示例。除了空间模型之外,我们还学习了一个感知模型,关于MRI分割的问题。其他最近的工作集中在学习简单的变换函数的组合(例如,旋转和对比度增强)来执行自然图像的数据增强[18,61]。这些简单的变换不足以捕获MRI数据中的许多细微变化。3. 方法我们建议通过在半监督学习框架中合成真实的训练样本来改进单次生物医学图像分割。令{y(i )}是生物医学图像体积的集合,并且令对(x,lx)表示标记的参考体积或at-las及其对应的分割图。在脑MRI中分割,每个x和y是灰度3D体积。我们专注于具有挑战性的情况下,只有一个标记的图集是可用的,因为它往往是难以在实践中获得许多分割的体积。我们的方法可以很容易地扩展到利用额外的分段卷。为了执行数据扩增,我们将变换τ(k)应用于标记的图集x。我们首先学习单独的空间和外观变换模型,以捕获标记的8546Uy一θs图像相似性损失=orE平滑度损失输入体积H×W×D×(1×2)CCconcatenateC C UU Uor转换体积H×W×D×3或高×宽×深×1C申请���输出体积H×W×D×13×3×3转换3×3×3转换最大池3×3×3转换和上采样图3:我们使用基于U-Net架构的卷积神经网络[63]来学习每个变换模型。变换的应用是空间模型的空间扭曲,以及外观模型的体素加法每个卷积使用3×3×3内核,然后是LeakyReLU激活层。编码器使用最大池化层来降低空间分辨率,而解码器使用上采样层。图谱和每个未标记体积。使用这两个学习的模型,我们通过ap来合成标记的卷{(y_n(k),y_l(k))}。在图谱的空间框架中的每体素添加。 我们使用以下函数进行空间变换和外观变换,n(i)=hθa(x,y(i)<$φ−1(i)),其中y(i)<$φ−1(i)是一个体积-信息到图谱体积,并通过扭曲图谱标签使用空间变换绘制地图。与单图谱分割相比,单图谱分割在空间变换模型中存在不确定性或误差,我们使用相同的空间变换模型。已使用我们的学习空间模型。总之,我们的空间和外观变换是:τ(i)(x)=x<$φ(i),φ=gθ(x,y(i))(1)- 用于合成体积和标记图的空间变换,确保新合成的体积被正确地这些合成示例形成了标记数据集,其表征了在这些示例中的解剖和外观变化。Sτ(i)(x)=x+τ(i),τ(i)=hθ3.2. 学习S(x,y(i)<$φ−1(i))。(二)未标记的数据集。与图谱一起,这个新的训练集使我们能够训练监督分割网络。该过程在图中概述。二、3.1. 空间和外观变换模型我们使用空间和强度变换的组合来描述扫描之间的差异具体我们称之为y,我们定义从一个矢量到另一个矢量的变换 τ( ·) 为空间变换τs(·)和强度或外观变换τa(·)的合成,i。e. ,τ(·)=τs(τa(·)).我们假设空间变换的形式为平滑的逐体素位移场u。遵循医学配准文献,我们定义变形函数φ=id+u,其中id是恒等函数。我们用x∈φ表示变形的应用φ =x。为了模拟空间变换的分布在我们的数据集中,我们使用φ(i)=gθs(x,y(i))计算将图谱x扭曲到每个体积y(i)的变形,其中gθs(·,·)是我们描述的参数函数后 我们将y(i)的近似逆变形写为:x作为φ−1(i)=g(y(i),x)。我们的目标是捕获变换τ s和τ a在图集和未标记卷之间的分布。我们估计了方程(1)中的函数gθs(·,·)和hθa(·,·)(1)和(2)使用单独的卷积神经网络,每个网络使用通用架构图中所示。3.第三章。根据Morphable Models [38]和Active Appearance Models [16,17]的见解,我们独立地优化了空间模型和外观模型。对于我们的空间模型,我们利用VoxelMorph [8,9,20],这是一种最近的基于无监督学习的方法,具有开源实现。VoxelMorph通过联合优化图像相似性损失和位移场平滑度项来学习输出将一个图像配准到另一个图像的平滑位移向量场我们使用具有归一化互相关的VoxelMorph的变体作为im,年龄相似性损失,使得能够用未归一化的输入体积估计gθs(·,·)我们使用类似的方法来学习外观模型。简单地说,人们可以从等式(1)定义hθa(·,·)。(2)作为图谱空间中的体积的简单的每体素减法。虽然这种变换将完美地重建目标图像,但当我们将表观变换τa(·)建模为:配准函数φ−1不完美,导致图像CCC一8547一一一SX一x+ψ 中 与 解 剖 标 记 不 匹 配 的 细 节 。 我 们 将 hθa(·,·)设计为神经网络,在解剖条件下产生每体素强度变化坚持的方式。具体来说,我们使用图像相似性损失以及语义感知的平滑正则化。给定网络输出<$i(i)=hθ(x,y(i)<$φ−1),我们基于图谱分割图定义平滑正则化函数Lsmooth ( cx , ) = ( 1−cx ) ,(3)其中,Cx是从图谱分割标记lx计算的解剖边界的二进制图像,并且lx是空间梯度算子。直觉上,这个术语不鼓励在同一解剖区域内发生剧烈的强度变化。在总外观变换模型损失La中,我们使用图像相似性损失的均方误差Lsim(ym,y)=||y−y||二、在我们的实验中,我们发现,计算图像相似性损失的空间框架,这个主题很有帮助。我们用正则化项Lsmooth来平衡相似性损失:L(x,y(i),φ(i),φ−1(i),φ(i),c)需要强调的是,精确的分割网络架构不是这项工作的重点,因为我们的方法可以与任何监督分割网络结合使用。3.5. 执行我们使用Keras [12]和Ten- sorflow [1]实现了所有模型。使用可微分3D空间Transformer层[8]实现对图像的空间变换应用;使用最近邻插值的类似层用于变换分割图。为了简单起见,我们使用两个相同的神经网络来捕获3.1节中描述的正向和反向空间变换对于外观变换模型,我们使用超参数设置λ a=0。02.我们在每个批次中使用一对卷来训练我们的变换模型,并使用16个切片的批次大小来训练分割模型。 所有模型都以5e-4的学 习 率 进 行 训 练 。 我 们 的 代 码 可 在https://github.com/xamyzhao/brainstorm上获得。4. 实验我们 证明 的 我们 自动扩增=Lsim. (x+<$(i))<$φ(i),y(i)<$+λL光滑(cx,(i)),该方法可用于改善脑MRI分割。我们专注于非标准化扫描其中λa是超参数。3.3.综合新的例子方程中描述的模型。(1)和(2)使我们能够对空间和外观变换τ(i),τ(j)进行采样- 一个具有挑战性但实际的场景。强度归一化方法,如偏置场校正[27,71,74],在现实情况下可能效果不佳(例如,临床质量扫描,或中风扫描[73]或创伤性脑损伤)。4.1.数据通过从未标记的图像中采样目标体积y(i)、y(j),数据集。由于空间和外观目标可以是不同的主题,我们的方法可以将一个主题的空间变化与另一个主题的强度组合成单个合成的视觉效果。我们通过将从目标体积计算的变换应用于标记的图谱来创建标记的合成示例y∈(i,j)=τ(i)(τ(j)(x)),我们使用[8]中描述的公开可用的T1加权MRI脑部扫描数据集。这些扫描是从八个数据库中编译的:[2019- 05 - 25][2019 - 05][2019 - 0HABS [19]和Harvard GSP [33];使用FreeSurfer [27]计算分割标签与[8]一样,我们用1mm各向同性体素将大脑重新采样为256×256×256s a和affordable对齐并将图像裁剪为160×192 ×224。l(i,j)=τ(i)(lx)。我们不应用任何强度校正,我们执行y s通过将没有解剖结构的体素归零来进行颅骨剥离该过程在图1的步骤3和4中可视化。二、这些然后,新的标记的训练示例被包括在用于监督分割网络的标记的训练集中。3.4.分割网络新合成的示例对于改进监督分割网络的性能是有用的。我们使用基于[66]中描述的最先进架构的网络来证明这一点。为了考虑GPU内存限制,网络被设计为一次分割我们在来自增强训练集的随机切片上训练网络。我们使用验证集上的提前停止来选择训练时期我们贝尔 为了进行评估,我们使用30个在[8]中描述的解剖标签。我们专注于使用一个单一的标记的例子分割的任务。我们随机选择了101个大脑扫描图,在训练时提供。在实践中,图谱通常被选择为接近人群的解剖学平均值。我们选择我们的图谱作为与[8]中计算的解剖平均值最相似的训练示例。这个图谱是用于训练我们的转换模型的单个标记示例;不使用其它100个训练脑的分段标签。我们使用另外50个扫描作为验证集,另外100个扫描作为保留测试集。8548y表1:根据Dice评分[23]的分割性能,在100次扫描的保持测试集上进行评价。我们报告了所有30个解剖标签和100名测试受试者的平均Dice评分(括号中为标准差)。我们还报告了每种方法在SAS基线上的平均成对改善方法Dice评分成对骰子改进SAS0.759(0.137)-SAS-aug0.775(0.147)0.016(0.041)兰德-奥格0.765(0.143)0.006(0.088)我们的耦合0.795(0.133)0.036(0.036)Ours-indep0.804(0.130)0.045(0.038)Ours-indep + rand-aug0.815(0.123)0.056(0.044)监督(上限)0.849(0.092)0.089(0.072)4.2. 细分基线单图谱分割(SAS):我们使用相同的最先进的配准模型[8],我们在单图谱分割框架中为我们的方法的空间变换模型进行了训练我们将图谱配准到每个测试卷,并使用计算的变形场扭曲图谱标签[6,13,22,32,41]。也就是说,对于每个测试图像y(i),我们计算φ(i)=gθs(x,y(i))并预测标签图4:与SAS基线一致的平均Dice评分(计算所有30个解剖标签的平均值)的成对改善,显示所有受试者。图5:平均Dice评分的成对改善(计算所有30个解剖标签的平均值)l(i)=lx◦ φ(i)。与SAS基线相比,显示了每例受试者的数据。受试者按我们的骰子改进程度排序-使用单图谱分割的数据增强(SAS-aug):我们使用SAS结果作为未注释的训练大脑的标签,然后将其作为监督分割的训练示例。这将向分段器训练集添加100个手动调整随机数据增强(rand-aug):独立+随机-八月超过SAS。4.3. 我们方法的变体独立采样(ours-indep):如第3.3节所述,我们对空间和外观目标图像进行独立地计算τ(i),τ(j)。100个未标记的是一个与[51,63,64]类似,我们创建随机平滑defor。通过在稀疏网格上对随机向量进行采样,然后应用双线性插值和空间模糊,来生成mation字段。我们评估了变形场的振幅和平滑度的几个设置,包括[63]中描述的设置,并选择了在验证集上产生最佳分割性能的设置。我们使用从范围[0]均匀采样的全局强度乘法因子来合成成像强度的大小变化。五一[5],与[35,40]相似。我们选择了与数据集中的强度变化相匹配的范围;这表示在实践中如何调整增强参数。这种增强方法在每次训练迭代中合成一个新的监督:我们训练了一个完全监督的分割网络,该网络对训练数据集中的所有101个除了atlas标签之外,这些标签不适用于任何其他方法。该方法用作上限。目标,我们获得100空间和100外观transformations,使10000不同的标记的例子的合成。由于内存限制,我们在每次训练迭代中合成一个随机标记的示例,而不是将所有10,000个新示例添加到训练集中。耦合采样(ours-coupled):为了突出我们的独立变换模型的有效性,我们将ours-indep与我们的方法的变体进行比较,其中我们从同一目标图像中对每个空间和外观变换进行这导致100个可能的合成实例。与我们的indep一样,我们在每次训练迭代中合成一个随机样本。Ours-indep+rand-aug:在训练分割器时,我们在使用ours-indep合成的示例和使用rand-aug合成的示例之间交替。 将手动调整增强添加到我们的合成增强中可以引入即使在未标记的集合中也看不到的额外方差,从8549而提高分割器的鲁棒性。8550图6:每种方法在不同大脑结构中的分割精度。标签按图谱中每个结构所占的体积进行排序(括号中显示),标签由左结构和右结构组成(例如,,海马)组合。我们对标签进行了分类:白质(WM)、皮质(CX)、脑室(vent)和脑脊液(CSF)。图7:两个测试对象的海马预测(行)。我们的方法(第2列)比基线(第3列和第4列)产生更准确的分割。4.4. 评估指标我们根据Dice评分[23]评估了每种分割方法的准确性,Dice评分量化了两个解剖区域之间的重叠Dice得分为1表示完全重叠的区域,而0表示没有重叠。相对于使用FreeSurfer [27]生成的解剖标签,对预测的分割标签进行评价。4.5. 结果4.5.1分割性能表1显示了每种方法获得的分割精度。我们的方法在所有30个评估标签中的平均Dice得分方面优于所有基线,显示出比下一个最佳基线rand-aug(使用配对t检验的p1 e-15)和SAS-aug(p1 e-20)有显著改善。图在图4和图5中,我们将每种方法与单个图谱分割基线进行比较。图4表明,我们的方法平均获得了最大的改进,并且更加一致。比手动调整的随机增强更稳定图5表明,我们的-indep+ rand-aug在每个测试对象上都始终优于每个基线。我们的独立总是优于SAS-aug和SAS,在100次测试扫描中有95次优于rand-aug图6显示rand-aug在SAS上改进了Dice大的解剖结构,但对较小的结构有害。相比之下,我们的方法在所有结构中对SAS和SAS-aug产生一致的改进我们在图中展示了几个分割的圆丘的例子。7 .第一次会议。4.5.2合成图像我们独立的空间和外观模型能够合成各种各样的大脑外观。图8示出了组合变换产生具有准确标签的真实结果的一些示例。5. 讨论为什么我们优于单图谱分割?我们的方法依赖于用于SAS和SAS-aug的相同空间配准模型。我们的耦合和SAS-aug都用100张新图像来增强分割器训练集。为了理解为什么我们的方法产生更好的片段-我们检查增强图像。我们的方法以与标签相同的方式扭曲图像,确保扭曲的标签与变换后的图像相匹配。另一方面,SAS-aug将扭曲的标签应用于原始图像,因此配准中的任何错误或噪声都会导致分割器的错误标记的新训练示例。图9突出显示了我们的方法在海马标记内合成图像纹理的示例,8551图集和标签,采样外观和空间变换目标(合成图像和标签^(++图8:由于我们独立地对空间和外观变换进行建模,因此我们能够合成各种组合效果。我们展示了一些使用从训练集学习的转换合成的示例;这些转换构成了我们增强模型的基础。顶行显示了合成图像,其中外观变换产生了暗化效果,并且空间变换缩小了脑室并加宽了整个大脑。在第二行,寰椎变亮,脑室扩大。与地面实况的纹理一致,从而产生更有用的合成训练示例。扩展我们的框架适合于几个plausi- ble未来的扩展。在3.1节中,我们讨论了使用近似逆变形函数来学习图谱参考系中的外观变换。而不是学习一个单独的逆空间变换模型,在未来,我们将利用现有的工作在几何配准[3,5,10,20,81]。我们从一组离散的空间和外观变换中采样变换这可以被扩展以更丰富地跨越变换的空间,例如,通过变换之间的插值或使用变换的组合。我们在脑MRI上展示了我们的方法。由于该方法不使用大脑或MRI特定信息,因此可以将其扩展到其他解剖或成像模式,如CT。6. 结论提出了一种基于学习的数据增强方法,并在单次医学图像分割中进行了验证。我们从一个标记的图像和一组未标记的示例开始。使用基于学习的配准方法,我们对标记和未标记示例之间的空间和外观变换集进行这些变换捕获诸如成像强度的非线性变形和变化的效果我们通过采样变换合成新的标记示例,并将其应用于标记示例,产生各种各样的逼真的新图像。图9:SAS-aug(第2列)和ours-coupled(第3列)生成的合成训练示例当空间模型(两种方法都使用)产生不完美的扭曲标签时,SAS-aug会将扭曲标签与不正确的图像纹理配对。我们的方法仍然产生了一个有用的训练示例,通过匹配合成图像纹理的标签。我们使用这些合成的例子来训练监督分割模型。该分割器在我们测试集中的每个示例上都优于现有的单次分割方法,接近完全监督模型的性能。该框架使得能够在许多应用中进行分割,例如在时间限制允许仅对少数扫描进行手动注释的临床环境中。总之,这项工作表明:• 从未标记的图像学习空间和外观变换的独立模型使得能够合成多样的和现实的标记的示例,和• 这些合成的例子可以用于训练在单次情况下优于现有方法的分割模型8552引用[1] M. Abadi等人Tensorflow:异构分布式系统上的大规模机器学习。arXiv预印本arXiv:1603.04467,2016。5[2] Z. Akkus , A.Galimzianova , A.Hoogi , D.L. Rubin 和B.J·埃里克森深度学习用于大脑MRI分割:技术水平和未来方向。Journal of Digital Imaging,30(4):449-459,2017。一、二[3] J·阿什伯恩一种快速同构图像配准算法。神经影像,38(1):95-113,2007年。8[4] Ashburner和K.弗里斯顿基于体素的形态测量方法。神经影像,11:805-821,2000。2[5] B. B.阿凡斯角L. Epstein,M. Grossman和J. C.哎呀具有互相关的对称同构图像配准:评估老年人和神经退行性脑的自动标记。医学图像分析,12(1):268[6] C. Baillard,P.Hellier,和C.巴里洛基于水平集和稠密配准的脑三维磁共振图像分割医学图像分析,5(3):185-194,2001。二、六[7] R. Bajcsy和S.科瓦契奇多分辨率弹性匹配计算机视觉,图形和图像处理,46:12[8] G. Balakrishnan,A. Zhao,M. R. Sabuncu,J. Guttag和A. 诉达尔卡一种用于可变形医学图像配准的无监督学习模型在IEEE计算机视觉和模式识别会议论文集,第9252-9260页二、四、五、六[9] G. Balakrishnan,A. Zhao,M. R. Sabuncu,J. Guttag和A.达尔卡Voxelmorph:一个可变形医学图像配准的学习框架。 IEEE transactions on medical imaging ,2019。二、四[10] M. F. B e g,M. I. Mille r,A. Trouv e′和L. 你好利用仿射的测地线流计算大变形度量映射国际计算机视觉杂志,61(2):139-157,2005。8[11] S. 凯尔斯,K.- K. Maninis,J. 蓬-图塞特湖Leal-Taixe',D. Cremers和L.范古尔单镜头视频对象分割。在CVPR2017。IEEE,2017年。3[12] F.Chollet等人Kerashttps://github.com/fchollet/keras,2015. 5[13] C. Ciofolo和C.巴里洛基于竞争水平集和模糊控制的脑三维结构医学图像分析,13(3):456-470,2009年。二、六[14] D. Coelho de Castro和B. Glocker. mri强度标准化的非参数密度流。在医学图像计算和计算机辅助干预国际会议上,第206-214页,2018年9月。2[15] T. F.库茨角Beeston,G. J. Edwards和C. J·泰勒一个使用主动外观模型进行图谱匹配的统一框架在医学成像信息处理两年一度的国际会议上,第322施普林格,1999年。2[16] T. F. Cootes,G. J. Edwards和C. J·泰勒主动应用模型。IEEETransactionsonPatternAnalysisMachineIntelligence,(6):681-685,2001。二、四[17] T. F. Cootes和C. J·泰勒医学图像分析和计算机视觉中的外观统计模型。2001年医学影像:图像处理,卷4322,页236-249。国际光学与光子学学会,2001年二、四[18] E. D. 库布克湾Zoph、D.Mane,V.Vasudevan和Q.诉乐自动扩 增:从数据中 学习增强策 略。arXiv预印本arXiv:1805.09501,2018。3[19] A. Dagley,M. LaPoint,W. Huijbers,T. Hedden,D. G.McLaren,J. P. Chatwal,K.帕普河E. 阿马里格里奥,D. Blacker,D. M. Rentz等人哈佛大脑老化研究:数据集和可访问性。NeuroImage,144:255-258,2017。5[20] A. 诉达尔卡湾Balakrishnan,J.Guttag和M.R. 萨班库无监督学习快速概率同构配准。医学图像计算和计算机辅助干预,第729Springer,2018. 二四八[21] A. V. Dalca,J. Guttag和M. R.萨班库用于无监督生物医学分割的卷积网络中的解剖学先验。在IEEE计算机视觉和模式识别会议论文集,第9290- 9299页,2018年。2[22] B. M. Dawant,S. L. 哈特曼,J. P. Thirion,F. 梅斯D. Vandermeulen和P.德马雷尔利用相似性和自由形式变换的组合自动3-dI.方法和验证正常受试者。IEEE医学成像学报,18(10):909-916,1999. 二、六[23] L. R.骰子.物种间生态关联量的量度。Ecology,26(3):297-302,1945. 六、七[24] N. Dong和E. P. Xing。基于原型学习的少量语义分割。在BMVC,第3卷,第4页,2018年。2[25] A.多索维茨基山口Fischer,J. T. Springenberg,M. Ried-miller和T.布洛克斯使用示例卷积神经网络进行区分性无监督特征学习IEEE transactions on pattern analysis andmachine intelligence,38(9):1734-1747,2016。第1、3条[26] Z. Eaton-Rosen,F.Bragman,S.Ourselin和M.J. 卡多索改进医学图像分割的数据增强。2018年国际医学成像与深度学习会议。1[27] B.费歇尔自由冲浪者神经影像,62(2):774-781,2012年。五、七[28] M. A. Frost和R.格贝尔测量结构-功能对应性:在宏观解剖学对准之后的专门脑区域的空间变异性。神经影像,59(2):1369-1381,2012。2[29] P. - A.加纳耶湾Sdika和H.伯努瓦-卡廷语义约束下的半监督分割学习。医学图像计算和计算机辅助干预国际会议,第595Springer,2018. 2[30] R. L. Gollub等人MCIC系列:来自精神分裂症临床研究的 多 模 态 、 多 位 点 脑 图 像 数 据 的 共 享 存 储 库 。Neuroinformatics,11(3):367-388,2013. 58553[31] S. 豪贝格岛Freifeld,A.B. L. Larsen,J.费希尔和L.汉森梦见更多数据:学习数据扩充的类依赖分布。在人工智能和统计,第342二、三[32] P. Hellier和C.巴里洛一种用于变形多模态图像配准的分层参数化算法。生物医学中的计算机方法和程序,75(2):107- 115,2004. 二、六[33] A. J. Holmes等人脑基因组学Superstruct项目的结构、功能和行为测量的初始数据发布。科学数据,2015年2月。5[34] G. Huang,Z.Liu,K.Q. Weinberger和L.范德马滕。密集连接的卷积网络。arXiv预印本arXiv:1608.06993,2016。3[35] Z.侯赛因F. Gimenez,D. Yi和D.鲁宾用于医学成像分类任务的差分数据增强技术。在AMIA年度研讨会论文集,第2017卷,第979页。美国医学信息学协会,2017年。6[36] J. E. Iglesias和M. R.萨班库生物医学图像的多图谱分割:调查。医学图像分析,24(1):205-219,2015。2[37] S. D.杰恩湾Xiong和K.格劳曼Fusionseg:学习结合运动和外观,实现视频中通用对象的全自动分割。在Proc.CVPR,第1卷,2017年。2[38] M. J. Jones和T.波焦多维可变形模型:表示和匹配对象类的框架。国际计算机视觉杂志,29(2):107-131,1998。二、四[39] T. Joyce,A. Chartsias和S. A. Tsaftaris深度多类分割,无需地面实况标签。2018. 2[40] K.卡姆尼察斯角莱迪格Newcombe,J. P·辛普森A. D. Kane,D.K. Menon、D.Rueckert,和B.Glocker. 有效的多尺度3d cnn与全连接的crf,用于精确的脑病变分割。医学图像分析,36:61- 78,2017。二、六[41] A. Klein和J.赫希Mindboggle:一种自动化大脑标记的方法。NeuroImage,24(2):261- 280,2005年。二、六[42] J. Krebs等人通过基于代理的动作学习实现鲁棒的非刚性配准。医学图像计算和计算机辅助干预国际会议(MICCAI),第344-352页。Springer,2017. 2[43] A.克里热夫斯基岛Sutskever和G. E.辛顿Imagenet分类与深度卷积神经网络。在神经信息处理系统的进展,第1097-1105页,2012年。3[44] E. G.学习米勒。通过连续的联合对齐实现数据驱动的图像 模型 。IEEE Transactions on Pattern Analysis andMachine Intelligence,28(2):236-250,2006. 2[45] K. K. Leung,M. J. Clarkson,J. W. Bartlett,S.克莱格角R. Jack Jr,M. W. Weiner,N. C. Fox,S. Ourselin,A.D. N. Initative,et al.使用多部位连续mri测量Alzheimer病的稳健萎缩率:组织特异性强度归一化和参数选择。神经影像,50(2):516-523,2010年。一、二[46] D. S. Marcus等人开放获取系列影像学研究(oasis):青年、中年、非痴呆和痴呆老年人的横断面mri数据。认知神经科学杂志,19(9):1498-1507,2007。5[47] K. Marek等人帕金森进展标志物计划。Progress in neurobiology,95(4):629-635,2011. 5[48] A. D. Martino等人自闭症脑成像数据交换:对自闭症内在脑结构的大规模评估。分子精神病学,19(6):659-667,2014。5[49] M. P. Milham等人ADHD-200联盟:一个在临床神经科学 中 推 进 神 经 成 像 转 化 潜 力 的 模 型 。 Frontiers inSystems Neuroscience,6:62,2012。5[50] E. G. Miller,N. E. Matsakis,和P. A.紫.大通过变换上的共享密度从一个示例中学习。IEEE计算机视觉与模式识 别 会 议 论 文 集 。 CVPR 2000 ( 目 录 号 :No.PR00662),第1卷,第 464-471页。IEEE,2000年。2
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![application/x-rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)