没有合适的资源?快使用搜索试试~ 我知道了~
基于前馈网络的多样化纹理合成
1基于前馈网络的多样化纹理合成李怡君1,陈芳2,杨继梅2,王兆文2,卢欣2,杨铭轩11美国加州大学默塞德分校2AdobeResearch{yli62,mhyang}@ ucmerced.edu{cfang,jimyang,zhawang,xinl}@ adobe.com摘要近年来,基于深度判别和生成模型的纹理合成方法取得了很好的效果.然而,现有的基于前馈的方法权衡了通用性和效率,其存在许多问题,例如缺乏通用性(即,每个纹理建立一个网络),缺乏多样性(即,总是产生视觉上相同的输出)和次优性(即,产生不太令人满意的视觉效果)。在这项工作中,我们专注于解决这些问题,改进纹理合成。我们提出了一个深度生成前馈网络,它可以在一个网络中有效地合成多个纹理,并在它们之间进行有意义的插值。同时,为了获得更好的收敛性和分集度,还引入了一系列重要的技术通过大量的实验,我们证明了所提出的模型和技术的有效性,合成大量的纹理,并显示其应用与风格化。1. 介绍Gatys等人的令人印象深刻的神经风格转移结果。[14]最近重新获得了计算机视觉,图形和机器学习社区对纹理合成经典问题的极大兴趣[10,9,35]。考虑到[14]中昂贵的优化过程,已经尝试开发前馈网络以有效地合成纹理图像或风格化图像[19,32]。然而,这些方法经常遭受许多问题,包括缺乏通用性(即,每个纹理建立总是产生视觉上相同的输出)和次优性(即,产生不太令人满意的视觉效果)。在本文中,我们提出了一个深度生成网络,用于在单个网络中合成多个纹理的不同输出。我们的网络架构受到[28,7]的启发,将噪声向量和选择单元作为输入,使用上卷积生成纹理图像。选择单元是一个独热矢量,其中每个比特代表一种纹理类型,并为用户提供一个控制信号,在不同类型的纹理之间进行合成。更重要的是,这样的多纹理合成网络有利于生成新的纹理通过插值与选择单元。同时,噪声向量旨在驱动网络生成不同的样本,即使是从单个示例纹理图像。然而,学习这样的网络是一项具有挑战性的任务。首先,不同类型的纹理具有完全不同的统计特性,这部分地由纹理损失的变化幅度反映(即,在[13,14]中引入的基于Gram矩阵的损失来测量不同特征层之间的风格相似性。第二,由于不同纹理的视觉差异和语义间隙,用于拟合不同纹理的收敛率本质上是因此,学习这种网络的总体难度第三,网络经常遇到具体来说,网络无法生成给定纹理的不同样本,这通常意味着对特定实例的过拟合在这项工作中,我们提出了一套有效的技术,以帮助网络产生更高质量的多样化输出我们首先通过减去特征均值来改进Gram矩阵损失,这样新设计的损失在规模上更稳定,并增加了学习的稳定性。其次,为了使网络具有生成不同样本的能力,并进一步防止过拟合,我们的目标是将输出样本与输入噪声向量相关联具体来说,我们引入了多样性损失,惩罚小批量中不同样本的特征相似性第三,我们证明了合适的训练策略对于网络更好更快地收敛至关重要因此,我们设计了一个增量学习算法,暴露新的训练纹理顺序学习网络。我们从学习合成一个纹理开始,只有当前一个纹理可以很好地生成时,才将下一个新的不可见纹理纳入学习因此,网络逐渐学会合成新的纹理,同时保留生成所有先前看到的纹理的能力。39203921噪声发生器256256816321281286464128322563256外积8163232163232326412832321286425632256纹理多样性88选择单元1632选择器64128256损失损失图1.提出的多纹理合成网络的架构它由一个发生器和一个选择器网络组成这项工作的贡献有三个方面:• 我们提出了一个生成网络,以用户可控的方式合成多个纹理。• 引入分集损失,以防止网络避免陷入退化的解决方案中,更重要的是,它允许网络生成不同的纹理样本。• 增量学习算法被证明是有效地训练网络,以合成质量更好的结果。2. 相关工作传统的合成模型。 纹理合成方法大致分为非参数和参数两类。纹理合成的参数化方法[17,27]旨在通过适当的统计模型表示纹理,假设当某些图像统计数据匹配良好时,两个图像可以在视觉上相似[20]。合成过程从一个随机噪声图像开始,并逐渐强制它具有与给定示例相同的相关统计数据。统计测量基于不同尺度的边缘滤波器响应直方图[3,17]或更复杂的联合响应[27]。然而,利用适当的图像统计是具有挑战性的参数模型,特别是在合成结构化纹理。或者,非参数模型[10,9,22,34]专注于从初始种子生长新图像,并将给定的纹理示例视为源池,以不断采样相似的像素或补丁。这也是早期纹理转移算法的基础[9,23,1,18]。尽管其简单,这些方法可能是缓慢的,并受到不均匀的图案分布。更重要的是,这些方法旨在生成完美的图像,而不是构建丰富的模型来理解纹理。用神经网络合成。深度CNN的成功在辨别任务[21,29]中,图像生成吸引了很多注意力。图像可以通过反转特征[26,6,5]重建,通过匹配fea合成或者说,是一种不确定性,或者说,是一种不确定性,或者说,是一种不确定性。神经网络合成本质上是一种参数化方法,其中中间网络输出提供丰富而有效的图像统计。Gatys等人[13]提出,如果两个纹理的特征由预先训练的基于CNN的分类器提取,则它们在感知上相似。基于此,噪声图被逐渐优化为与CNN特征空间中的纹理示例相匹配的期望随后的方法[19,32]通过将生成公式化为学习前馈网络来加速此优化过程。这些方法通过最小化地面实况和生成的图像的统计之间的差异来训练前馈网络。特别是,图像统计是通过预先训练的网络的中间输出来测量的。通过遵循基于优化的[24,11,12,15]或基于前馈的[25,33]框架的其他方法进行了进一步的改进。然而,这些方法受到每个纹理训练一个网络的不必要要求的限制。我们的框架也属于前馈类别,但在一个单一的网络中合成多个纹理的不同结果。Du-moulin等人最近提出的一种并发相关方法.[8]在一个网络中处理多样式传输,通过在归一化到每个特定纹理后专门化缩放和移位参数。我们的工作与[8]的不同主要在两个方面。首先,我们采用不同的我们将纹理表示为一个独热选择单元中的位,并表示为网络中的连续嵌入向量。第二,我们提出了分散损失和增量训练方案,以达到更好的收敛性和输出多样化的结果。此外,我们证明了我们的方法在更大的纹理集上的有效性(例如,300),而[8]开发了32纹理的网络。3. 该算法我们在图1中展示了所提出的模型的网络架构。纹理合成网络(底部)256VGG损耗网络...... ... ......这是什...纹理3922有两个输入,一个噪声向量和一个选择单元,而蓝色虚线框的上部是为了将我们的模型扩展到风格转换而添加的模块。噪声向量是从均匀分布中随机采样的,并且选择单元是独热向量,其中每个比特表示给定纹理集中的纹理。该网络由两个流组成:生成器和选择器。生成器负责合成,选择器引导生成器朝向目标纹理,以选择单元中的激活位为条件。给定M个目标纹理,我们首先将M维选择单元映射到较低维的选择嵌入。然后我们计算噪声向量和选择嵌入的外积。在外积操作之后,我们将结果重新塑造为一堆1×1映射,然后使用SpatialFullConvolution图层将它们卷积为更大的具有许多特征图的空间表示。经过一系列最近邻上采样和卷积运算后,该表示将转换为256×256×3像素的图像。在选择器流上,它从嵌入的空间投影开始,然后连续上采样为一系列特征图,这些特征图与生成器中的那些特征图连接在一起,以便在每个尺度上提供指导(从粗略到精细)。最后,生成器的输出被馈入固定的预训练损失网络,使用在损失网络的不同层提取的视觉特征来匹配目标纹理的相关统计我们使用19层VGG [31]模型作为损失网络。3.1. 损失函数我们采用两个损失函数,即,纹理损失和多样性损失。计算合成结果和给定纹理之间的纹理损失,以确保这两个图像共享相似的统计数据并且在感知上相似。在相同纹理的输出之间计算分集损失(即,在选择单元处的相同输入)由不同的输入噪声矢量驱动其目标是防止生成器网络被困在一个单一的退化的解决方案,并鼓励模型产生多样化的结果与大的变化。纹理损失。类似于现有的方法[13,19,32],纹理损失基于损失网络的不同层中的特征图的Gram矩阵(G)差,如Σ图2. 使用G和减去均值的G之间的比较。我们展示了两个3纹理网络的结果(左和右)。顶部:原始纹理,中部:使用基于G的织构损失的合成结果,底部:使用基于G的纹理损失的合成结果。conv1 1、conv2 1、conv3 1、conv4 1和conv5 1层。基于Gram矩阵的纹理丢失算法对单纹理合成是有效的然而,对于多纹理合成的目的,我们经验性地发现,原始纹理损失(定义为等式2)。1)给网络区分纹理带来困难,因此不能很好地合成它们。在图2的中间一行,我们展示了在两个实验中使用原始纹理损失生成的纹理的一些示例,其中两个实验使用一个网络合成3个纹理注意合成结果中明显的我们把这个问题归因于不同纹理的Gram矩阵在尺度上的巨大差异。受此观察的启发,我们通过在计算两次激活之间的内积之前减去平均值来修改原始的Gram矩阵计算:ΣGij=(Fik−F)(Fjk−F),(2)K其中F定义为损耗网络电流层中所有激活的平均值,其余项与Gram矩阵(1)中的定义相同在没有重新集中激活的情况下,我们注意到在训练过程中,来自不同纹理的损失和梯度的值变化很大,这表明网络偏向于学习Gram矩阵的尺度,即,F,而不是区分它们。在图2的底行中,我们提供了用重新居中的格拉姆矩阵合成的相同纹理,这清楚地显示了与中间行相比的改进。L纹理=Ggt−G输出1,Gij=FikFjk,(1)K多样性损失。如上所述,其中一个问题其中,Gram矩阵中的每个条目Gij被定义为Fik和Fjk的内积,F ik和F jk是损耗网络的电流层中位置k处的第i个(和第j个我们使用激活在与现有的前馈方法是很容易被困退化的解决方案,其中它总是输出视觉上相同的(有时具有不太令人满意的重复模式)[30]。当训练只与纹理损失,亲,3923<迭代>采样纹理ID>图3.无多样性和有多样性之间的比较1~KK+1~2K2K+1~3K.........损失左:原始纹理,中:在不同噪声输入下的输出(w/odiversity),右:在同一组不同噪声输入下的输出(w/diversity)。网络也有同样的问题。我们在图3的中间面板中显示了几个示例。在不同噪声输入下的结果几乎一致,只是像素值有细微的、不可察觉的差别这是预期的,因为纹理损失被设计为确保所有合成结果具有与给定纹理相似的风格,但不强制输出之间的多样性。换句话说,每个合成结果与输入噪声不相关。为了将输出与输入噪声相关联,我们设计了一个多样性损失,它明确地测量了在相同纹理但不同输入噪声下生成的结果之间的视觉外观的变化。 如果在每个前馈通道的一个批次中有N个输入样本,则生成器将发出N个输出{P1,P2,… P N}。 我们的多样性损失衡量的是任何一对输出P i和P j之间的差异使用视觉特征。 设{Q1,Q2,., Q N}是{P1,P2,..., PN},满足P iQ i.为了增强更高级别而不是更低级别(例如像素偏移)的多样性,在损失网络Φ的conv4 2层处的特征图之间计算多样性损失,如下所示:1ΣN图4. 渐进式培训战略。每个块代表一次迭代,其中的数字是这次迭代的采样纹理id(也是我们在选择单元中设置为1的位)。 我们在实验中使用K= 10002001501005000 10 20 30 40 50 60纹理id图5. 在60纹理合成中,随机和增量训练收敛时最终纹理损失的比较。3.2. 增量训练我们讨论了建议的网络的训练过程,重点是如何采样的一组预定义的纹理集的目标纹理更具体地说,我们解决的问题,是否样本应随机选择或在一定的顺序,以产生多样化的纹理。一旦目标纹理被选择,我们将选择单元中的对应位设置为1,并且使用对应的纹理来计算纹理损失。L多样性=Ni=1Φ(Pi)−Φ(Qi)根据经验,我们发现随机采样策略通常会产生较差的结果,并且很难进一步降低所有纹理图像的纹理损失,我们的方法产生的结果与这种多样性损失在图3的右侧面板中示出。虽然在感知上相似,但我们的方法的结果包含丰富的变化。在[30]中发现了类似的观察结果,这也通过扩大中间层特征批次内所有样本之间的距离来鼓励生成模型训练的多样性,而我们的方法通过多样性损失实现我们模型的最终损失函数是纹理损失和多样性损失的组合,如(4)所示。由于目标是最小化纹理损失并最大化多样性损失,因此我们在实验中使用系数α=1,β=−1。L=αL纹理+βL多样性,(4)一定数量的迭代。我们训练了一个60纹理的网络作为例子,并在图6的中间行显示了随机采样的收敛结果(60个中的10个)。文物清晰可见。每个纹理的主要图案被捕获,但是几何形状没有被很好地保留(例如,第一纹理中的六边形),并且颜色没有很好地匹配(即,与来自其他纹理的颜色混合)。我们把这个问题归因于在一组不同的目标纹理中随机采样所引起的学习目标的不断急剧变化。换句话说,尽管网络在每次迭代中都获得了对采样纹理的改进,但在随后的迭代中,这种改进可能会被淹没,其中不同的纹理被优化。因此,学习变得不那么有效,并最终陷入一个糟糕的局部最优。随机训练增量训练1111最终织构损失1212121231231233924图6.随机训练和增量训练的比较上图:原始纹理,中图:随机训练合成,下图:通过渐进式训练进行综合。图5中的模型处理了60个纹理,我们在这里显示了10个纹理的合成结果。因此,我们提出了一种增量式的训练策略,以帮助学习更有效。总的来说,我们的增量培训策略可以被视为一种课程学习形式增量式训练所提出的网络有两个方面首先,我们不会教网络在现有任务之前学习新任务,网络可以很好地学习现有任务。也就是说,我们从学习一个纹理开始,当网络可以很好地合成以前的纹理时,逐渐引入新的纹理第二,我们确保网络不会忘记已经学到的东西。也就是说,我们确保到目前为止输入到网络的所有目标纹理在未来的迭代中仍然会被采样,以便网络具体来说,在前K次迭代中,我们保持将选择单元的第1位设置为1,让网络完全专注于合成纹理1。在接下来的K次迭代中,涉及纹理2,我们依次从1到2我们对其他纹理重复相同的过程。我们在图4中说明了这个过程。在所有纹理都被引入网络之后,我们切换到随机采样策略,直到训练过程收敛。在图5和图6中,我们展示了60纹理网络实验中随机和增量训练策略显然,增量训练方案导致更好的收敛定量和定性。有趣的是,我们观察到网络学习新纹理的速度更快,因为它在后面的训练阶段看到更多的纹理。为了证明这一点,我们记录了每个纹理在采样时的纹理损失,并在图7中显示了训练60纹理网络时的以Texture20(图7(a))为例,使用增量训练学习的网络与使用随机采样策略的网络相比,可以快速达到较低的损失我们假设网络受益于从纹理1-19中学习到的共享知识。这一猜想得到了后来引入的纹理(图7(b-d))的支持,其中增量-(a) 纹理20(b)纹理30(c)纹理40(d)纹理50图7.在60个纹理的网络训练中,对单个纹理进行随机训练和增量训练的比较请注意,当首次涉及新纹理时,损失曲线上会出现一些突然的剧烈变化,这会导致网络中的短期当它学习更多纹理时,说话训练在收敛时相对更快。4. 实验结果在本节中,我们提出了广泛的实验结果来证明我们的算法的有效性。我们的实验与合成大量的纹理使用一个单一的网络,然后表明,我们的模型是能够产生不同的输出,并通过线性插值创建新的纹理。4.1. 多纹理合成除了在第3节中为演示目的训练的60纹理网络之外,我们还尝试了一个更大的3925图8. 300纹理网络的合成结果。在每个面板中,左:原始纹理,右:综合结果。我们在这里展示了20个(300个中的)纹理的结果作为示例。对于每个纹理,我们只显示一个合成结果。图9. TextureNet [32](中)和我们的模型(右)之间的各种合成结果的比较。300-纹理网络,以进一步验证我们的模型的鲁棒性和可扩展性。我们将300维选择单元映射到128维嵌入,并使用5维噪声向量。在增量训练策略下,同时考虑纹理和多样性损失对网络进行训练.我们实验中使用的纹理图像来自可描述纹理数据集(DTD)[2]。图8显示了20个纹理的合成结果。4.2. 多样性通过对噪声向量中的不同噪声进行采样,我们的网络可以为每个纹理生成不同的合成结果。现有的单一纹理网络[32]也可以在一定程度上产生多样性。然而,多样性仍然是有限的,因为他们的网络是用纹理损失训练的。[32]中的多样性主要通过在不同尺度(从8×8到256×256)注入多个噪声图如果没有明确的约束来推动多样性,那么这种巨大的变化将被网络减少或吸收,这仍然导致输出的多样性有限我们在图9中比较了我们的模型和[32]的不同输出。请注意,共用对角线布局在[32]的不同结果中,这导致不令人满意的视觉体验。相比之下,我们的方法以更自然和灵活的方式实现了多样性。由于多样性损失,我们的模型使不同的输出与低维噪声输入,这使我们能够产生这些输出之间的连续过渡。4.3. 插值配备了一个选择单元和一个学习的M-纹理网络,我们可以在测试时在比特之间插值,以创建新的纹理或生成纹理之间的平滑过渡我们在图10中展示了两个使用我们预先训练好的300纹理网络进行插值的例子。例如,在图10的顶行中,我们从纹理20开始,并将合成驱动到纹理19。这是通过逐渐减小第20位的权重并增加第19位的权重来实现的,其余位都设置为零。这样一个平稳的过渡表明,我们这一代人可以沿着一个连续的空间前进。文[14]中的方法也能综合两种纹理的插值结果在[14]中,如果我们将G1和G2表示为两个纹理的Gram矩阵,则通过优化匹配某个中间Gram矩阵a×G1+(1-a)×G2来生成插值纹理(例如,a=0.5)。我们在图11中显示了[14]和我们的方法之间的插值比较。据观察,[14]的结果只是被两个纹理覆盖,而我们的方法产生了新的纹理效果。4.4. 扩展到多风格转换我们将多纹理合成的思想扩展到图像风格化的多风格转换。给定一个样式图像和一个内容图像,图像样式化的目标是合成一个保留全局内容的图像,3926图10.使用300纹理网络进行纹理插值(或过渡)顶部:纹理20到纹理19,底部:纹理19到纹理12.最左边和最右边的图像是原始纹理。内容256256128128Concat646464 646464 6464128128256256......这是什么?6464内容损失风格损失多样性损失[14]第11话,我的世界[14]和我们的方法之间的插值比较从样式图像转移颜色和局部结构。为了表达清晰,我们将使用术语样式而不是纹理。网络架构如图12所示。我们使用类似于[19]的自动编码器网络,并结合我们引入选择单元的想法来处理不同风格的传递环。更具体地,对于选择单元中的每个比特,我们生成对应的噪声图(例如,来自均匀分布),并将这些映射与来自内容的编码特征连接起来,然后将这些编码特征解码为传送的结果。当选择一种样式时,只有与之对应的噪波贴图被随机初始化,而其他噪波贴图被设置为零。内容损失计算为传输结果与VGG模型conv4 2层内容之间的特征差异,如[14]所示。风格损失和多样性损失的定义与纹理合成相同。我们训练了一个1000风格的传输网络,并在图13中显示了传输的结果。请注意,由于我们的多传输模型是完全卷积的,因此它能够处理任意大小的内容此外,我们将多风格传输模型与图15中的现有方法进行了比较。我们调整风格权重,使所有方法具有相似的转移效果。它清楚地表明,我们的多风格传输模型实现了改进或可比的结果。通过选择单元,我们通过调整选择单元中不同位的权重来在样式之间进行插值图12. 多类型传输网络的体系结构。并生成图14中的样式插值(或过渡)结果。具体来说,如果我们将s1和s2表示为两种风格的位值,将N1和N2表示为相应的噪声图,则通过将s1×N1+s2×N2作为选择输入来生成插值。各种转移结果如图16所示。不同从纹理合成的情况来看,图像的全局结构受到保持内容的要求的约束因此,多样性表现在局部视觉结构上。请注意这些输出之间微小但有意义的差异。5. 讨论互联网。在我们的模型中,我们引入了一个选择器网络(图1),以驱动网络只合成所需的纹理。选择器在每个上采样比例下向生成器注入指导,并帮助模型在合成期间更好地区分不同的纹理。我们在图17中展示了一个训练60-texture网络w/o和w/selector网络的例子。我们给出了两个纹理的损失曲线作为例子,这清楚地表明,使用选择器,网络训练实现了更好的收敛。嵌入。从一个热选择单元开始,以表示每个比特的每个纹理,我们首先将其映射到一个较低维的嵌入,并旨在学习给定纹理的更好表示。在我们展示的60-纹理和300-......VGG损耗网络风格3927图13. 转让成果1000式转让网。我们展示了8个(1000个中的)样式的结果作为示例。顶部:样式图像,最左侧:内容图像,底部:转移结果。图14.风格插值(或过渡)与多风格网络传递。最左边和最右边的图像是原始样式。中间使用的内容图像来自图13。[14]第十二届中国国际纺织品展览会图15. 现有方法与我们的方法之间的风格转换结果的比较。图16. 我们的多类型转移网络的多样化转移结果。左:内容图像,中:各种传输结果,右:样式图像。注意鸟喙和天空的区别。纹理模型,我们将60-D和300-D选择单元分别映射到32-D和128-D嵌入。结果表明,嵌入后的模型仍能区分不同的纹理进行合成,说明原有的one-hot表示是冗余的。此外,正如我们已经证明的那样,新的纹理可以通过前馈方式通过插值来创建,这就提出了一个悬而未决的问题,即我们是否可以以向后的方式找到系数,以将给定的新纹理表示为学习嵌入的加权组合。我们将此作为今后的努力方向。(a) 纹理20(b)纹理40图17.我们的框架之间的损失曲线的比较没有和选择器网络。6. 结论在本文中,我们专注于在一个单一的网络合成多个给定M个纹理,我们提出了一个深度生成前馈网络,它可以为每个纹理合成大小不同的结果。为了训练用于多纹理合成的深度网络,我们引入了多样性损失,并提出了一种增量学习方案。多样性损失有助于网络用相同的输入合成不同的纹理,增量学习方案有助于有效和高效的训练过程。实验结果表明,该模型的有效性,与现有的单纹理网络相比,它产生了相当的结果,但大大减少了模型的大小。我们还展示了我们的多纹理合成模型的扩展到多风格的图像风格化转移。谢谢。这项工作得到了NSF CAREER Grant #1149783的部分支持,该基金来自Adobe和Nvidia。3928引用[1] N. Ashikhmin 快速纹理转移。计算机图形学与应用,23(4):38-43,2003. 2[2] M. Cimpoi,S.马吉岛Kokkinos,S.穆罕默德,A.维达尔迪描述野外的纹理。CVPR,2014。6[3] J. S. 德·博内纹理图像分析与合成的多分辨率采样方法在SIGGRAPH,1997中。2[4] E. L. Denton,S.钦塔拉河Fergus等人使用对抗网络的拉普拉斯金字塔的深度生成图像模型。2015年,在NIPS中。2[5] A. Dosovitskiy和T.布洛克斯基于深度网络生成具有感知相似性度量的图像。在NIPS,2016年。2[6] A. Dosovitskiy和T.布洛克斯使用卷积网络反转视觉表示在CVPR,2016年。2[7] A. 多索维茨基Tobias Springenberg和T.布洛克斯学习用卷积神经网络生成椅子CVPR,2015。1[8] Dumoulin,J. Shlens和M.库德鲁艺术风格的博学的代表arXiv预印本arXiv:1610.07629,2016。2[9] A. A. Efros和W. T.弗里曼。图像绗缝纹理合成和转移。SIGGRAPH,2001年。一、二[10] A. A. Efros和T. K.梁非参数采样纹理合成。载于ICCV,1999年。一、二[11] O. Frigo,N. Sabater,J. Delon,and P.赫利尔拆分和匹配:用于非监督风格传递的基于示例的自适应补丁采样。在CVPR,2016年。2[12] L. A. Gatys,M. Bethge,A. Hertzmann和E.谢克特人。神经艺术风格迁移中的色彩保存。arXiv预印本arXiv:1606.05897,2016年。2[13] L. A. Gatys,A. S. Ecker和M.贝丝使用卷积神经网络进行纹理合成。2015年,在NIPS中。一、二、三[14] L. A. Gatys,A.S. Ecker和M.贝丝使用卷积神经网络的图像风格在CVPR,2016年。一、六、七、八[15] L. A. Gatys,A. S. Ecker,M. Bethge,A. Hertzmann和E.谢克特曼神经风格迁移中知觉因素的控制。arXiv预印本arXiv:1611.07865,2016年。2[16] I. 古德费罗 J. 波吉特-阿巴迪 M. 米尔扎 B. 许、D. 沃德-法利,S。奥扎尔A.Courville和Y.本吉奥。生成对抗网络。在NIPS,2014。2[17] D. J. Heeger和J.R. 卑尔根基于金字塔的纹理分析/合成。SIGGRAPH,1995年。2[18] A. 赫茨曼角E. Jacobs,N.奥利弗湾Curless和D.H.销售形象类比。SIGGRAPH,2001年。2[19] J. Johnson,A. Alahi和L.飞飞实时风格转换和超分辨率的感知损失。在ECCV,2016年。一、二、三、七、八[20] B. Julesz视觉模式识别。IRE transactions on InformationTheory,8(2):84-92,1962. 2[21] A.克里热夫斯基岛Sutskever和G. E.辛顿Imagenet分类与深度卷积神经网络。NIPS,2012年。2[22] V. Kw atra、黑果草A. 舍霍德尔岛埃萨湾 Turk和A. BobickGraphcut纹理:使用图形切割的图像和视频合成。SIGGRAPH,2003年。2[23] H.李,S。徐氏Ryoo和K.尹定向纹理转移。NPAR,2010年。2[24] C. Li和M.魔杖结合马尔可夫随机场和卷积神经网络进行图像合成。在CVPR,2016年。2[25] C. Li和M.魔杖利用马尔可夫生成对抗网络进行预计算实时纹理在ECCV,2016年。2[26] A. Mahendran和A.维达尔迪通过反转它们来理解深度图像表示。CVPR,2015。2[27] J. Portilla和E.西蒙切利基于复小波系数联合统计量的参数化纹理模型IJCV,40(1):49-70,2000. 2[28] A.拉德福德湖,澳-地Metz和S.钦塔拉使用深度卷积生成对抗网络进行无监督表示学习ICLR,2016年。一、二[29] O. 鲁萨科夫斯基Deng,H.Su,J.Krause,S.萨蒂希S.妈Z。Huang,黄背天蛾A.卡帕西A.科斯拉,M。Bernstein等人图像网大规模视觉识别挑战。IJCV,115(3):211-252,2015. 2[30] T. 萨利曼斯岛Goodfellow,W.扎伦巴河谷Cheung,A.Rad- ford和X.尘改进了训练GAN的技术。在NIPS,2016年。三、四[31] K. Simonyan和A.齐瑟曼。用于大规模图像识别的深度卷积网络。arXiv预印本arXiv:1409.1556,2014。3[32] D. 乌里扬诺夫河Lebedev,A.Vedaldi和V.Lempitsky 纺织网络:纹理和样式化图像的前馈合成。InICML,2016. 一二三六八[33] D. Ulyanov,A.Vedaldi和V.Lempitsky 实例规范化:快速 风 格 化 缺 少 的 成 分 。 arXiv 预 印 本 arXiv :1607.08022,2016。2[34] L- Y. Wei和M.勒沃基于树结构矢量量化的快速纹理合成。SIGGRAPH,2000年。2[35] L- Y. Wei 和M. 勒沃任 意流形表面上 的纹理合成 。SIGGRAPH,2001年。1
下载后可阅读完整内容,剩余1页未读,立即下载
![.pdf](https://img-home.csdnimg.cn/images/20210720083646.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- VMP技术解析:Handle块优化与壳模板初始化
- C++ Primer 第四版更新:现代编程风格与标准库
- 计算机系统基础实验:缓冲区溢出攻击(Lab3)
- 中国结算网上业务平台:证券登记操作详解与常见问题
- FPGA驱动的五子棋博弈系统:加速与创新娱乐体验
- 多旋翼飞行器定点位置控制器设计实验
- 基于流量预测与潮汐效应的动态载频优化策略
- SQL练习:查询分析与高级操作
- 海底数据中心散热优化:从MATLAB到动态模拟
- 移动应用作业:MyDiaryBook - Google Material Design 日记APP
- Linux提权技术详解:从内核漏洞到Sudo配置错误
- 93分钟快速入门 LaTeX:从入门到实践
- 5G测试新挑战与罗德与施瓦茨解决方案
- EAS系统性能优化与故障诊断指南
- Java并发编程:JUC核心概念解析与应用
- 数据结构实验报告:基于不同存储结构的线性表和树实现
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)