没有合适的资源?快使用搜索试试~ 我知道了~
9243解释GANs的潜在空间用于语义人脸编辑沈玉军1、顾金金2、唐晓鸥1、周波磊11香港中文大学2香港中文大学深圳分校{sy116,xtang,bzhou}@ ie.cuhk.edu.hk,jinjingu@link.cuhk.edu.cn原始年龄眼镜性别构成图1:通过改变训练有素的GAN模型的潜在代码来操纵各种面部属性第一列显示PGGAN [19]的原始合成,而其他每一列显示操作特定属性的结果摘要尽管生成对抗网络(GAN)在高保真图像合成方面取得了最新进展,但人们对GAN如何能够将从随机分布中采样的潜在代码映射到照片般逼真的图像缺乏足够的理解以前的工作假设GAN学习的潜在空间遵循分布式表示,但观察到向量算术现象。在这项工作中,我们提出了一个新的框架,称为InterFaceGAN,通过解释GANs学习的潜在语义来进行语义面部编辑。在这个框架中,我们对如何在GAN的潜在空间中编码不同的语义进行了详细的我们发现,经过良好训练的生成模型的潜在代码实际上在线性变换后学习了一个解纠缠的表示。我们探讨了各种语义之间的解纠缠,并设法与子空间投影解耦一些纠缠的语义,从而更精确地控制面部属性。除了操纵性别、年龄、表情和眼镜的存在之外,我们甚至可以改变面部姿势并修复意外生成GAN模型当与GAN反演方法或一些编码器相关模型相结合时,所提出的方法进一步应用于实现真实图像操作。大量的研究结果表明,学习合成脸自发地带来了一个解开和可控的面部属性表示。11. 介绍生成对抗网络(GAN)[15]近年来显着推进了图像合成GAN背后的基本原理是通过对抗训练来学习从潜在分布到真实数据的映射在学习了这种非线性映射之后,GAN能够从随机采样的潜码中产生照片般逼真的图像。然而,语义是如何在潜空间中产生和组织的,这是不确定的。以人脸合成为例,当对潜在代码进行采样以产生图像时,代码如何能够确定各种语义属性(例如,、性别和年龄),以及这些属性是如何相互纠缠的?1代码和型号可在此链接。9244现有的工作通常集中在提高GAN的合成质量[37,25,19,8,20],然而,很少有人努力研究GAN实际上学习了潜在空间。Radford等人。 [28]首先观察到潜在空间中的向量算术属性。最近的一项工作[4]进一步表明,GAN生成器中间层的一些单元即便如此,人们对GAN如何连接潜在空间和图像语义空间,以及潜在代码如何用于图像编辑缺乏足够的理解。在本文中,我们提出了一个框架InterFaceGAN,简称为InterpretingFace GAN,以识别编码在训练良好的人脸合成模型的潜在空间中的语义,然后利用它们进行语义人脸编辑。除了向量算术属性之外,该框架还提供了理论分析和实验结果来验证线性子空间与潜在空间中出现的不同真假语义对齐。我们进一步研究了不同语义之间的解纠缠,并表明我们可以解耦一些纠缠属性(例如:老年人比年轻人更可能戴眼镜)。这些分离的语义使得能够使用任何给定的GAN模型精确控制面部属性,而无需重新训练。我们的贡献总结如下:• 我们提出InterFaceGAN来探索如何在GAN的潜在空间中编码单个或多个语义,例如PGGAN [19]和StyleGAN [20],并观察到GAN自发地学习对应于特定属性的各种潜在子空间。这些属性表示在一些线性变换之后变得不纠缠。• 我们证明了InterFaceGAN可以使用任何固定的预训练GAN模型进行语义人脸编辑。一些结果示于图1.一、除了性别、年龄、表情和眼镜的存在之外,我们还可以明显地改变面部姿势或纠正GAN产生的一些伪影。• 我们将InterFaceGAN扩展到真实图像编辑,使用GAN反转方法和编码器相关模型。我们通过简单地改变潜在代码成功地操纵了真实面孔的属性,即使GAN不是专门为编辑任务设计的。1.1. 相关工作生成对抗网络。GAN [15]近年来引起了广泛的关注,因为它在产生逼真图像方面具有巨大的潜力[1,17,6,37,25,19,8,20]。它通常将采样的潜在代码作为输入并输出图像合成。为了使GAN适用于真实图像处理,现有的方法提出,将从潜在空间到图像空间的映射反向[27,39,24,5,16]或学习额外的编码器与GAN训练有关[13,12,38]。尽管取得了巨大的成功,但在理解GAN如何学习将输入潜在空间与真实视觉世界中的语义联系起来方面却做得很少。GANs的潜在空间研究。 GAN的潜在空间通常被视为黎曼流形[9,2,21]。先前的工作集中在探索如何使输出图像从一个合成到另一个平滑地变化,插值在潜在的空间,无论图像是否是语义可控[22,29]。GLO [7]同时优化了生成器和潜在代码,以学习更好的潜在空间。 然而,研究如何一个训练有素的GAN能够在潜在空间内编码不同的语义仍然缺失。一些工作已经观察到向量算术属性[28,33]。除此之外,本文还从单个语义的属性和多个语义的解纠缠两个方面对潜在空间中的语义进行了详细的分析一些并行工作还探索了GAN学习的潜在语义。Jahanian等人。 [18]研究了GAN关于相机运动和图像色调的可操控性。 Goetschalckx等人。 [14]提高了输出图像的可记忆性。Yang等人。 [35]探索了场景合成的深层生成表示中的层次语义。与他们不同的是,我们专注于GAN中出现的面部属性进行面部合成,并将我们的方法扩展到真实图像操作。使用GAN进行语义人脸编辑。语义人脸编辑的目的是操纵给定图像的面部属性。与可以任意生成图像的无条件GAN相比,语义编辑只改变目标属性,但保留输入面的其他信息。为了实现这一目标,目前的方法需要精心设计的损失函数[26,10,32],引入额外的属性标签或特征[23,36,3,34,31],或特殊的架构[11,30]来训练新模型。然而,这些模型的合成分辨率和质量远远落后于原生GAN,如PGGAN [19]和StyleGAN [20]。与以往基于学习的方法不同,这项工作探索了固定GAN模型的潜在空间内的可解释语义,并通过改变潜在代码将无约束GAN转变为可控GAN2. InterFaceGAN框架在本节中,我们介绍了Inter- FaceGAN的框架,该框架首先对经过良好训练的GAN模型的潜在空间中出现的语义属性进行了严格的分析,然后构建了利用潜在代码中的语义进行面部属性编辑的操作管道。92451211d−2我2.1. 潜空间中的语义给定一个经过良好训练的GAN模型,生成器可以用公式表示为确定性函数g:Z → X。这里,ZRd表示d维潜在空间,通常使用高斯分布N(0,Id)[25,19,8,20]。 X代表图像空间,其中每个样本x具有某些语义信息,如人脸模型的性别和年龄假设我们有一个语义评分函数fS:X → S,其中S <$Rm表示具有m个语义的语义空间我们可以用s=fS(g(z))来桥接潜在空间Z和语义空间S,其中s和z表示语义得分,并且采样潜码分别。单语义。人们普遍认为,当n1−(nTn2)n2图2:子空间中的条件操作的图示。从n 1中减去n1在n2上的投影,得到一个新的方向n1−(nTn2)n2。性质2给定n∈Rd,其中nTn=1,它定义了一个超平面e和一个多元。(1)A(0)A(0)A(0)A(|nTz| ≤2αd)≥(1−3 e−cd)(1 −2e−α2/2),其中α≥1且d≥4。Here,P(·)线性插值两个潜码z1和z2,出现-α3相应合成的速率连续变化[28,8,20]。这意味着图像中包含的语义据房地产代表概率,c是一个固定的正常数。多重语义当涉及到m个不同的语义时,我们有1,z1和z2之间的线性插值形成Z中的方向,其进一步定义超平面。我们sfS(g(z))=ΛNTz,(3)因此,假设2,对于任何二进制语义(例如:,男性v.s. 女性),在潜在空间中存在作为分离边界的超平面。当潜在代码在超平面的同一侧行走时,语义保持不变,而当越过边界时,语义变为相反给定一个具有单位法向量n∈Rd的超平面,我们定义从样本z到该超平面的作为d(n,z)=nTz.(一)这里,d(·,·)不是严格定义的距离,因为它可以是负的。 当z位于边界附近并被移动时,朝向超平面和穿过超平面,“距离”和语义得分都相应地变化。距离的数值符号发生变化时,语义属性发生了逆转。因此,我们预计这两个是线性相关的,f(g(z))=λd(n,z),(2)其中f(·)是特定语义的评分函数,λ >0是衡量语义随距离变化的速度的标量。根据属性2,从N(0,Id)中抽取的随机样本是其中s =[s1,. - 是的- 是的 ,sm]T表示语义得分,Λ= diag(λ1,. - 是的- 是的 ,λm)是包含线性系数的对角矩阵,并且N =[n1,. - 是的- 是的 ,nm]表示分离边界。意识到随机样本z的分布,其为N(0,Id),我们可以容易地计算语义得分s的均值和协方差矩阵为µs=E(ΛNTz)=ΛNTE(z)=0,(4)E=E(ΛNT zzTNΛT)=ΛNTE( zzT)NΛT=ΛNTNΛ。(五)因此,我们有s<$N(0,<$s),这是一个多元正态分布。s的不同元素被分解当且仅当s是对角矩阵,这需要{n1,. -是的-是的 ,n,m}与每个其他r正交。 如果这条件不成立,则某些语义将与并且nTnj可以用于测量第i和第j语义之间的纠缠。2.2. 潜空间的操纵在这一部分中,我们介绍了如何使用潜在空间中发现的图像编辑的语义单一属性操作。根据等式(2)、为了操纵合成图像的属性,我们可以很可能位于足够接近给定超平面的位置因此,相应的语义可以通过以下方式建模:容易地编辑原始潜在代码z,编辑=z + αn。它由n定义的线性子空间。性质1给定n∈Rd,其中n为0,Rd:nTz=0}定义了Rd中的一个超平面,n称为将使综合看起来更积极的这样的语义在α>0的情况下,因为在编辑之后分数变为f( g(zedit))=f(g(z))+λα。同样,α0会使合成看起来更负。法向量。 所有向量z∈Rd满足nTz>09246从超平面的同一侧定位。[2]这一假设在第二节中得到了实证验证。第3.1条1.2.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.1.|nTz|>5。0)<1e−6。 这表明,几乎所有的采样潜在代码都被期望位于5个单位长度的边界。证据可以在补充材料中找到。92471条件操纵。当存在多个属性时,编辑一个属性可能会影响另一个属性,因为某些语义可以彼此耦合为了实现更精确的控制,我们提出了有条件的操纵手动迫使NTN方程。(5)要成对角线。特别地,我们使用投影来正交化不同的向量。如图2,给定两个法向量为n1的超平面,n2,我们找到投影方向n1-(nTn2)n2,使得沿着这个新方向移动样本可以改变“attribute 我们称之+中国新闻网0−������������������姿势微笑年龄性别眼镜操作为条件操作。 如果有更多如果有多个属性需要条件化,我们只需减去原始方向在由所有条件方向构成的平面上的投影。真实图像处理。由于我们的方法能够从固定GAN模型的潜在空间进行语义编辑,因此我们需要在执行操作之前首先将真实图像映射到潜在代码。为此,现有方法已经提出直接优化潜在代码以最小化重建损失[24],或者学习额外的编码器以将目标图像反转回潜在空间[39,5]。还有一些模型已经涉及编码器以及GAN的训练过程[13,12,38],我们可以直接用于推理。3. 实验在本节中,我们使用最先进的GAN模型PGGAN [19]和StyleGAN [20]来评估InterFaceGAN。具体来说,SEC中的实验。第3.1节3.2、二。3.3在PGGAN上进行,解释了传统生成器的潜在空间。实验在SEC。3.4在StyleGAN上进行,研究基于样式的生成器,并比较StyleGAN中两组潜在表示之间的差异。我们还将我们的方法应用于SEC中的真实图像。3.5了解GAN隐式学习的语义如何应用于真实人脸编辑。执行细节见补充材料。3.1. 潜在空间分离如第2.1,我们的框架是基于一个假设,即对于任何二进制属性,潜在空间中的超平面,使得来自相同的边具有相同的属性。因此,我们想首先评估这一假设的正确性,使其余的分析相当可观。我们在姿势,微笑,年龄,性别,眼镜上训练了五个独立的线性SVM,然后在验证集(属性得分具有高置信度的6K样本)以及整个集合(480K随机样本)上对其进行评估。选项卡. 1显示结果。我们发现,所有的线性边界达到95%以上的准确性验证集图3:距离接近的合成样品(中间一行)并且非常远离分离边界(顶行和底每一列对应一个特定的属性。表1:关于不同属性的潜在空间中的分离边界的分类准确度(%)。数据集构成微笑年龄性别眼镜验证100.096.997.998.795.6所有90.378.575.384.280.1在整个集合上超过75%,这表明对于二元属性,在潜在空间中存在线性超平面,可以很好地将数据分成两组。我们还在图中可视化一些样品3通过将它们与决策边界的距离进行排序。请注意,这些极端情况(图中的第一行和最后一行)3)不太可能被直接采样,而是通过向正常方向“无限地”移动潜在代码来构造从图3、可以看出正样本和负样本在对应的属性上是可以区分的。3.2. 潜在空间操纵在这一部分中,我们验证了InterFaceGAN发现的语义是否是可操作的。操纵单个属性。图4绘制了五个不同属性的操作结果。这表明,我们的操纵方法在积极和消极方向上的所有属性都表现良好特别是在姿态属性上,我们观察到即使通过解决双分类问题来搜索边界,移动潜在代码也会产生连续的变化。此外,尽管训练集中缺乏足够的极端姿势数据,但GAN能够想象侧面脸应该是什么样子。同样的情况也发生在眼镜属性上。我们可以手动创建很多戴眼镜的人脸,尽管训练集中的数据不足。这两个观察结果提供了强有力的证据,证明GAN并不是随机产生图像,而是从潜在空间中学习一些可解释的语义。语义子空间的距离效应。当操纵潜码时,我们观察到一个有趣的距离效应,即如果样本被移动得离边界太远,距离9248构成微笑年龄性别眼镜图4:单个属性操作结果。第一行显示同一个人逐渐改变姿势。下面的行对应于操作四个不同属性的结果。对于一行中的每组三个样本,中心的样本是原始合成,而左侧和右侧分别代表通过沿负方向和正方向移动潜码而得到的结果。⋯ ⋯女性(极端)近边界男性(极端)图5:以性别操纵为例说明距离效应。红色虚线框中的图像代表原始合成。我们的方法表现良好时,潜在的代码位于接近边界。然而,当距离继续增加时,合成的图像不再像同一个人。最后往往成为图中所示的极端情况。3 .第三章。图5以性别编辑为例说明了这一现象。近边界操作效果良好。然而,当样本超出某个区域4时,编辑结果不再像原始面部。但这一效应并不影响我们对潜空间中解纠缠语义的理解。这是因为这样的极端样本不太可能直接从标准正态分布中提取,这在第2节的性质2中指出。2.1.相反,它们是通过保持沿着某个方向移动正常采样的潜在代码来手动构建的。通过这种方式,我们可以更好地解释GAN的潜在语义。伪影校正。我们进一步应用我们的方法来修复有时发生在合成4我们选择5.0作为阈值。图6:修复GAN生成的工件的示例第一行示出了一些不良的生成结果,而随后的两行呈现了通过沿着正“质量”方向移动潜在代码而逐渐校正的合成修复伪影92491年龄眼镜性别年龄Agew/ Gender Preserved Eye-glassesw/ Age Preserved图7:条件操作的示例。前两行显示了操作结果以及SVM为两个属性独立学习的原始方向。最后一行通过改变一个属性而不改变另一个属性来编辑面产出我们手动标记4K坏的合成,然后训练线性SVM找到分离超平面,与其他属性相同。我们惊讶地发现,GAN也在潜在空间中编码这些信息。基于这一发现,我们能够纠正GAN在生成过程中所犯的一些错误,如图所示六、眼镜年龄原装眼镜w/3.3. 条件操作在本节中,我们研究了性别年龄、性别保留不同的属性,并评估条件操纵的方法。属性之间的相关性。 与文献[20]引入感知路径长度和线性可分离性来衡量潜在空间的解纠缠性不同,本文更关注不同隐藏语义之间的关系,研究它们之间的耦合关系。这里,使用两个不同的度量来测量两个属性之间的相关性。(i)我们计算两个方向之间的余弦相似度为cos(n1,n2)=nTn2,其中n1和n2代表单位向量。(ii)我们将每个属性得分视为随机变量,并使用从所有500K合成数据中观察到的属性分布来计算相关系数ρ。这里我们图8:使用more than一个条件。左:原始合成。中:沿单个边界的操纵。右:条件操作。绿色箭头:原始方向。红色箭头:投影减影。表2:属性边界的相关矩阵。构成微笑年龄性别眼镜构成1.00-0.04-0.06-0.05-0.04微笑-1.000.04-0.10-0.05年龄--1.000.490.38性别---1.000.52眼镜----1.00表3:综合属性分布的相关矩阵有ρ=Cov(A1,A2),其中A和代表两A1A 2联系人:张经理关于两个属性的随机变量。Cov(·,·)表示协方差,σ表示标准差。选项卡. 2、Tab。3报告结果。我们可以看出,属性在 这 两 个 指 标 下 的 行 为 相 似 , 这 表 明 我 们 的InterFaceGAN能够准确地识别隐藏在潜在空间中的语义我们还发现彼此的关系 该观察反映了训练数据集中的属性相关性(即,,CelebA-HQ [19])在某种程度上,男性老年人更有可能穿姿势和微笑几乎与其他属性正交。然而,性别、年龄和眼镜高度相关。眼镜GAN在学习产生真实观察时也捕捉到了这一特征。构成微笑年龄性别眼镜构成1.00-0.01-0.01-0.020.00微笑-1.000.02-0.08-0.01年龄--1.000.420.35性别---1.000.47眼镜----1.009250电子邮件电子邮件电子邮件条件年龄图9:StyleGAN [20]的潜空间Z和解纠缠潜空间W分析,以年龄操作为例。W空间对于长期操作表现得更好,但是Z空间中的缺陷可以通过投影(即,条件操纵)以实现更好的性能。条件操纵。为了去相关不同的se-mantics独立的面部属性编辑,我们提出了条件操纵。2.2图7显示了通过将一个属性与另一个属性作为条件来操作的一些结果。取图中左侧的样本。7作为一个例子,结果往往成为男性时,被编辑变老(第一行)。我们通过从年龄方向减去其在性别方向(第二行)上的投影来解决这个问题通过这种方式,我们可以确保当样本沿着投影方向(第三行)移动时,性别分量几乎不受影响。图图8显示了具有多个约束的条件操作,其中我们通过有条件地保留年龄和性别来添加眼镜。一开始,添加眼镜与改变年龄和性别有关。但我们设法添加眼镜,而不影响年龄和性别与投影操作。这两个实验表明,我们提出的条件方法有助于实现独立和精确的属性控制。3.4. StyleGAN上的结果与传统的GAN不同,StyleGAN [20]提出了基于样式的生成器。基本上,StyleGAN学习将潜在代码从空间Z映射到另一个高在将其馈送到生成器之前,对维空间W进行处理正如[20]中所指出的,W显示出比Z强得多的解纠缠特性,因为W不限于任何特定的分布,并且可以更好地模拟底层真实数据的特征。我们对StyleGAN的Z和W空间做了类似的分析,发现W空间确实学习了一个更松散的表示,正如[20]所指出的那样。这样的解纠缠使得W空间在属性编辑方面比Z空间具有更强的优势作为示于图9、年龄和眼镜也是StyleGAN模特的纠结点。与Z空间(第二行)相比,W空间(第一行)的性能更好,特别是在长距离操作中。尽管如此,我们可以使用第二节中描述的条件操作技巧。2.2在Z空间(第三行)中去相关 然而,这种技巧不能应用于W空间。我们发现W空间有时会捕获训练数据中发生的属性相关性,并将它们编码为一种耦合的以图9例如,这样,减去几乎为零的投影几乎不会影响最终结果。3.5. 真实图像处理在这一部分中,我们使用所提出的InterFaceGAN操作真实人脸,以验证GAN学习的语义属性是否可以应用于真实人脸。回想一下,InterFaceGAN通过沿着特定方向移动潜在代码来实现语义面部编辑。因此,我们需要首先将给定的真实图像反转回潜码。事实证明,这是一项重要的任务,因为GAN并不能完全捕获所有模式以及真实分布的多样性要反转预训练的GAN模型,有两种典型的方法。一种是基于优化的方法,其直接使用固定生成器优化潜在代码以最小化逐像素重建误差[24]。另一种是基于编码器的,其中训练额外的编码器网络来学习逆映射[39]。我们在PGGAN和StyleGAN上测试了两种基线方法。近边界9251(a)(一)(b)(b)第(1)款(c)反演(c)第(1)款Young OldInversion平静的微笑图10:使用预先训练的PGGAN [19]和StyleGAN [20],根据年龄和性别属性操纵真实面孔。给定一个要编辑的图像,我们首先将其反转为潜在代码,然后使用InterFaceGAN操作潜在代码。左上角是输入的真实人脸。从上到下:(a)PGGAN与基于优化的反演方法,(b)PGGAN与基于编码器的反演方法,(c)StyleGAN与基于优化的反演方法。输入重建性别年龄微笑眼镜姿势图11:使用LIA [38]操纵真实人脸,这是一种用于高分辨率人脸合成的编码器-解码器生成模型结果示于图10个。我们可以看出,基于优化(第一行)和基于编码器(第二行)的方法在反转PG-GAN时表现出较差的性能。这可以归因于训练和测试数据分布之间的强烈差异。例如,该模型倾向于生成西方人,即使输入是东方人(见图中的右侧示例)。第10段)。然而,即使与输入不同,反转的图像仍然可以用InterFaceGAN进行与PGGAN相比,StyleGAN(第三排)上的结果要好得多。在这里,我们对待逐层样式(即,,w对于所有层)作为优化目标。编辑实例时,我们将所有样式代码推向同一方向。如图10,我们成功地改变了真实人脸图像的属性,而无需重新训练StyleGAN,而是利用潜在空间的解释语义。我 们 还 在 编 码 器 - 解 码 器 生 成 模 型 上 测 试 了InterFaceGAN,该模型与生成器和编码器一起训练编码器。在模型收敛后,编码器可以直接用于推理,以将给定图像映射到潜在空间。我们应用我们的方法来解释最近的编码器-解码器模型LIA [38]的潜在空间。操作结果如图所示11在这里,我们成功地编辑了具有各种属性的输入面部,如年龄和面部姿势。它表明,潜在的代码在编码器-解码器为基础的生成模型也支持语义操纵。此外,与图。图10(b)在GAN模型准备好之后单独学习编码器的情况下,与生成器一起训练的编码器给出了更好的重建和操纵结果。4. 结论我们提出InterFaceGAN来解释GAN潜在空间中编码的语义。通过利用解释的语义以及提出的条件操作技术,我们能够使用任何固定的GAN模型精确控制大量的实验表明,InterFaceGAN也可以应用于真实图像编辑。鸣谢:这项工作部分由香港研究资助局的早期职业计划 ( ECS ) 资 助 , 资 助 号 为 24206219 , 部 分 由SenseTime合作资助。9252引用[1] 马 丁 ·阿 乔 对 ky , 苏 米 特 ·钦 塔 拉 和 Le'onBottou 。Wasserstein生成对抗网络ICML,2017。2[2] Georgios Arvanitidis , Lars Kai Hansen , and SørenHauberg.潜在空间古怪:深度生成模型的曲率。在ICLR,2018年。2[3] Jianmin Bao,Dong Chen,Fang Wen,Houqiang Li,and Gang Hua. 面 向 开 集 身 份 保 持 的 人 脸 合 成 。 在CVPR,2018年。2[4] David Bau , Jun-Yan Zhu , Hendrik Strobelt , BoleiZhou, Joshua B.作者:William T. Freeman 和AntonioTorralba。可视化和理解生成对抗网络。2019年,在ICLR。2[5] David Bau 、 Jun-Yan Zhu 、 Jonas Wulff 、 WilliamPeebles 、 Hendrik Strobelt 、 Bolei Zhou 和 AntonioTorralba。看看一个帮派不能创造什么。在ICCV,2019年。二、四[6] David Berthelot Thomas Schumm 和 Luke Metz 。 Be-gan:边界平衡生成对抗网络。arXiv预印本arXiv:1703.10717,2017. 2[7] Piotr Bojanowski, Armand Joulin ,David Lopez-Pas,and Arthur Szlam.优化生成网络的潜在空间。在ICML,2018。2[8] 安德鲁·布洛克杰夫·多纳休凯伦·西蒙尼安用于高保真自然图像合成的大规模GAN训练2019年,在ICLR。二、三[9] Nutan Chen,Alexej Klushyn,Richard Kurle,XueyanJiang,Justin Bayer,and Patrick van der Smagt.用于深度生成模型。在AISTAT,2018年。2[10] Xi Chen,Yan Duan,Rein Houthooft,John Schulman,Ilya Sutskever,and Pieter Abbeel. Infogan:通过信息最大 化 生 成 对 抗 网 络 进 行 可 解 释 的 表 示 学 习 。InNeurIPS,2016. 2[11] Chris Donahue,Akshay Balsubramani,Julian McAuley和Zachary C.利普顿生成对抗网络的潜在空间语义分解。在ICLR,2018年。 2[12] Je f fDonahue , PhilippK raühenbühl , 和 Tr ev 或Darrell。对抗性特征学习。在ICLR,2017。二、四[13] Vincent Dumoulin 、 Ishmael Belghazi 、 Ben Poole 、Olivier Mastropietro 、 Alex Lamb 、 Martin Arjovsky 和Aaron Courville。逆向学习推理。在ICLR,2017。二、四[14] Lore Goetschalckx,Alex Andonian,Aude Oliva,andPhillip Isola.Ganalyze : Toward visual definitions ofcognitive image properties.在ICCV,2019年。2[15] 伊恩·古德费洛、让·普盖特-阿巴迪、迈赫迪·米尔扎、许冰、大卫·沃德-法利、谢尔吉尔·奥扎尔、阿伦·库维尔和约舒亚·本吉奥。生成性对抗网。NeurIPS,2014。一、二[16] Jinjin Gu,Yujun Shen,and Bolei Zhou.图像处理采用多码gan先验.在CVPR,2020年。2[17] Ishaan Gulrajani 、 Faruk Ahmed 、 Martin Arjovsky 、Vincent Dumoulin和Aaron C Courville。改进的瓦瑟斯坦甘斯训练。NeurIPS,2017。29253[18] Ali Jahanian,Lucy Chai和Phillip Isola。关于生成式对抗网络的“引导能力”。在ICLR,2020年。2[19] Tero Karras , Timo Aila , Samuli Laine , and JaakkoLehtinen.GAN的逐步增长,以提高质量,稳定性和变化。在ICLR,2018年。一二三四六八[20] Tero Karras Samuli Laine和Timo Aila一个基于样式的生成器架构,用于生成对抗网络。在CVPR,2019年。二三四六七八[21] 莱恩·库内尔,汤姆·弗莱彻,萨朗·乔希,斯特凡·索姆梅 尔 . 潜 空 间 非 线 性 统 计 。 arXiv 预 印 本 arXiv :1805.07632,2018。2[22] Samuli Laine用于探索生成模型的潜在空间的基于特征的度量。在ICLR研讨会,2018年。2[23] Guillaume Lample、Neil Zeghidour、Nicolas Usunier、Antoine Bordes、Ludovic Denoyer和Marc衰减器网络:通过滑动属性操作图像。NeurIPS,2017。2[24] Fangchang Ma,Ulas Ayaz,and Sertac Karaman.部分测量卷积生成网络的可逆性。NeurIPS,2018。二四七[25] Takeru Miyato,Toshiki Kataoka,Masanori Koyama,and Yuichi Yoshida.生成式对抗网络的谱归一化。在ICLR,2018年。二、三[26] Augustus Odena , Christopher Olah , and JonathonShlens.辅助分类器gans的条件图像合成ICML,2017。2[27] Guim Perarnau , Joost Van De Weijer , BogdanRaducanu,andJoseMA'lv arez. 用于图像编辑的不可见条件gans在NeurIPS研讨会,2016年。2[28] 亚历克·雷德福卢克·梅斯和苏米特·钦塔拉深度卷积生成对抗网络的无监督表示学习。ICLR,2016年。二、三[29] Hang Shao,Abhishek Kumar,and P Thomas Fletcher.深层生成模型的黎曼几何。2018年CVPR研讨会。2[30] Yujun Shen,Ping Luo,Junjie Yan,Xiaogang Wang,and Xiaoou Tang.Faceid-gan : 学 习 对 称 的 三 人 游 戏gan,用于保持身份的面部合成。在CVPR,2018年。2[31] Yujun Shen,Bolei Zhou,Ping Luo,and Xiaoou Tang.Facefeat-gan:一个两阶段的方法,身份保持人脸合成。arXiv预印本arXiv:1812.01288,2018。2[32] Luan Tran,Xi Yin,and Xiaoming Liu.姿态不变人脸识别的非纠缠表示学习算法在CVPR,2017年。2[33] Paul Upchurch、Jacob Gardner、Geoff Pleiss、RobertPless 、 NoahSnavely 、 KavitaBala 和 KilianWeinberger。针对图像内容变化的深度特征插值。在CVPR,2017年。2[34] 肖泰宏,洪家鹏,马锦文。优雅:交换潜在的编码与甘转移多个面部属性.在ECCV,2018。2[35] Ceyuan Yang,Yujun Shen,and Bolei Zhou.语义层次出现在场景合成的深层生成表示中。arXiv预印本arXiv:1911.09267,2019。2[36] Xiang Yu,Xiang Yu,Kihyuk Sohn,Xiaoming Liu,and Man-mohan Chandraker.向野外大摆脸的正面化。InICCV,2017. 29254[37] Han Zhang , Ian Goodfellow , Dimitris Metaxas , andAugus- tus Odena.自我注意生成对抗网络。在ICML,2019。2[38] 朱佳鹏,赵德利,张波。Lia:具有对抗学习的潜在可逆 自 动 编 码 器 。 arXiv 预 印 本 arXiv : 1906.08090 ,2019。二四八[39] Jun-YanZhu ,PhilippKr? henb? hl,EliShechtman ,andAlexei A Efros.自然图像流形上的生成视觉操作。在ECCV,2016年。二四七
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)