没有合适的资源?快使用搜索试试~ 我知道了~
在受限空间Chia-Che Chang*1,Chieh Hubert Lin*1,Che-rongLee1 Da-Cheng Juan2,Wei Wei2,and Hwann-TzongChen11计算机科学系国立清华大学{chang810249,hubert052702,cherung}@ gmail.com,htchen@cs.nthu.edu.tw网站,2Google AI,Mountain View,CA,美国{大成,伟伟}@ google.com抽象。生成对抗网络(GAN)在训练过程中经常遭受不可预 测 的 模 式 崩 溃 我 们 研 究 了边 界 平 衡 生 成 对 抗 网 络(BEGAN)的模式崩溃问题,BEGAN是最先进的生成模型之一。 尽管BEGAN具有生成高质量图像的潜力,但我们发现,经过一段时间的训练后,BEGAN在某些模式下往往会崩溃。我们提出了一个新的模型,称为BEGAN与约束空间(BEGAN-CS),其中包括潜在的空间约束的损失函数。我们表明,BEGAN-CS可以显着提高训练的稳定性和抑制模式崩溃,既不增加模型的复杂性或降低图像质量。此外,我们可视化的潜在向量的分布,阐明潜在空间约束的效果实验结果表明,我们的方法具有额外的优势,能够在小数据集上训练,并生成与给定的真实图像相似的图像,但具有指定属性的变化。1介绍本文的主要目标是为训练生成对抗网络(GANs)中的模式崩溃问题提供新的见解GAN在基于真实样本生成新数据方面表现出巨大的潜力,并已应用于各种视觉任务[4,6,10,19,20,26,27,29]。我们的研究指出了一种简单但有效的方法,可用于提高训练GAN的稳定性,以生成关于解纠缠表示的高质量图像。GAN包括两个核心组件:发生器G和鉴别器D。这两个分量相对于两个空间被优化一个是生成器的潜在空间Z,另一个是与生成器相关联的数据空间X。* 表示贡献相等。2C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈训练数据x∈X的实数据分布preal(x)。生成器的目标是找到映射G:Z-X,该映射最大化鉴别器错误地接受所生成的图像G(z)的概率,z∈Z作为来自pre l(x)。在此基础上,提出了一种新的约束条件,即当给定的x ∈ X属于p实(x)时,约束条件成立在训练过程中,生成器只学习由卷积提供的信息,并旨在估计一个良好的映射,使得p模型(G(z))类似于p实数(x)。与自动编码器[13]相比,由于对抗性损失,GAN可以生成更清晰的图像然而,采用对抗性损失的一个缺点是它使GAN的训练不稳定。性能强烈依赖于超参数的选择,并且生成的图像往往具有较弱的结构一致性。边界平衡生成对抗网络(BEGAN)[3]由Berthelot等人介绍。提出了几个修改的架构和损失的设计,显着提高生成的图像的质量和训练的稳定性。BEGAN的另一个贡献是为基于能量的GAN类提供近似收敛尽管BEGAN的有希望的改进,我们经验地观察到,BEGAN仍然不可避免地运行到模式崩溃后的某些时期的训练同时,BEGAN的收敛近似和损失函数都不能检测到模式的突然崩溃。在我们的实验中,模式崩溃发生的确切时间与目标图像分辨率和数据集大小高度相关。除了模式崩溃的典型缺点之外,这种不可预测的行为还使得BEGAN的预期目标是将“全局对象作为约束”完全复制。1.1贡献我们提出了一个新的约束损失对解决模式崩溃的问题。我们发现,模式崩溃的问题被抑制后,加入约束损失。这个新的损失项不增加模型的复杂性,并且计算成本低。此外,它不引入关于图像质量和多样性的任何折衷。该模型被称为约束空间的BEGAN(BEGAN-CS)。我们使用主成分分析(PCA)[1]可视化训练阶段产生的潜在向量。在3.1节中,我们分析了约束损失的影响,并解释了为什么这个损失项使训练过程稳定。由于BEGAN-CS在训练过程中更稳定,即使训练数据集的大小比正常设置小十倍,BEGAN也无法获得可接受的结果。在第4.3节中,我们的实验表明,所提出的BEGAN-CS最终可以收敛到一个更好的状态,而BEGAN在早期阶段以模式崩溃结束。我们进一步发现,BEGAN能够在无监督环境中学习强大且高质量所学习的解纠缠表示可以用于修改所生成的表示的底层属性。在受限空间中逃离塌陷模式3图像. 同时,由于约束损失,BEGAN-CS可以对任意给定的实像x * 实时逼近Enc(x*)z*,其中G(z*)是x*在固定生成器权值下的近似像通过对z*近似和解纠缠表示的杠杆作用,BEGAN-CS可以在运行中生成一组以实像x* 为条件的图像。所生成的图像在视觉上类似于给定的真实图像,并且能够表现出可调节的解缠属性。2相关工作深度卷积生成对抗网络(DCGAN)[24]通过采用卷积架构来改进原始GAN [9],以实现更好的训练稳定性和生成图像的增强质量。Salimans等人进一步提出了几种训练GAN的实用技术[25]。然而,如何在保证图像质量的同时避免模式崩溃仍然是一个具有挑战性的问题。基于能量的生成对抗网络(EBGAN)[30]引入了一种用于制定GAN的 其他 观点EBGAN将 鉴别 器实 现边 界平 衡 生成 式广 告网 络(BEGAN)[3]与EBGAN具有相同的鉴别器设置BEGAN的核心贡献之一通过这些改进,BEGAN提供了快速稳定的训练收敛,并能够生成高视觉质量的图像。BE-GAN的另一个贡献早期的GANs缺乏收敛性测量。直到后来,以Wasserstein生成对抗网络(WGAN)[2]为例的一类新的GAN引入了一种新的算法,其中C或R与G或R的C或R结构相关。据我们所知,BEGAN产生了另一类GAN,其也具有与收敛测量相关的除 了 基 于 能 量 的 GAN 之 外 , 渐 进 式 增 长 的 生 成 对 抗 网 络(PGGAN)[14]是生成高质量图像的另一种方法。通过在不修改原始GAN损失的情况下改变训练过程,PGGAN能够提高训练稳定性并产生多样化但高分辨率(高达1024 ×1024像素)的图像。BEGAN-CS的z*近似特性类似于另一类双射GAN,其在潜在空间Z和潜在空间Z之间构造双射。数据空间X.这类模型包括ALI [8]、BiGAN [7]、VEEGAN [28]和[15]。这四种方法具有相似的特征,需要额外的努力来优化扩展网络。VEEGAN引入了一个额外的重构器网络Fθ,它将真实数据分布p(x)映射到高斯分布。ALI/BiGAN都在生成器中引入了额外的编码器网络,并尝试建立双射函数。[15]故,“五”是“五”的意思,“ 五 ” 是“五”。(9)在[15]中)具有生成器必须包括真实图像的先决条件。4C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈潜在的空间。他们在发生器中引入了一个额外的编码器网络来满足这一要求。相 比 之 下 , BEGAN-CS 引 入 了 一 个 轻 量 级 的 损 失 , 它 利 用 了BEGAN的内置机制,而不需要额外的网络。这使得潜在空间反转函数与鉴别器联合可优化。此外,约束损失是一个非常强的指标,检测和保护模型的模式崩溃。我们还在第4.6节中包括与双射GAN类的进一步实验3方法模式崩溃是所生成的图像陷入或在几个模式之间振荡的现象这种现象在BEGAN由于每个样本在BEGAN的编码器中共享相同的编码器,因此以相同模式折叠的生成图像将共享由编码器编码的相似的潜在向量。通过利用这个属性,我们提出了潜在的空间约束损失(Lc),或约束损失的短。 它约束潜在向量z与编码器的内部状态之间的差的范数Enc(G(z)),其中Enc是鉴别器内的编码器。在训练过程中,约束损失仅相对于鉴别器进行优化。虽然模式崩溃问题发生在发生器侧,但直接向发生器添加约束损失将向发生器暴露关于如何利用约束损失的过多信息,从而加速模式崩溃的发生。约束损失也可以被看作是一种约束条件,它将函数E_n_c(G(·))确定为一个独立的函数,并迫使编码器的编码器保持随机采样的z∈Z的多样性和均匀性。图 1 是 BEGAN-CS 的 全 架 构 的 概 述 。 BEGAN-CS 的 目 标 函 数 与BEGAN的目标函数基本相似,只是增加了约束损失。BEGAN-CS的全部目标包括LG=L(G(zG;θG);θD),对于θG(1)和与.LD=L(xreal;θD)−kt·L(G(zD;θG);θD)+α·Lc, 对于θD(2)Lc=zD−Enc(G(zD)),(约束损失)kt+1= kt+ λ(γL(x; θD)− L(G(zG; θG); θD)),对于每个历元。(三)分别对发电机总损耗LG和逆变器总损耗LD进行优化,求解参数θG和θD与θD相关联的函数L(x;θD)=x-D(x)计算任何给定图像x与其由下式的解码器重构的图像D(x在受限空间中逃离塌陷模式5编码器E()解码器D()E()约束损失()发生器()拉克塞尔D()伊什夫克鉴别器(D)图1:BEGAN-CS的概述。鉴别器。潜在向量zD和zG是从Z随机采样的。变量kt∈[0, 1]控制对L(G(zD;θG);θD)的强调程度超参数γ∈[0, 1]在真实图像重建损失L(x;θD)和生成图像区分损失L(G(zG;θG);θD)之间平衡。超参数α是约束损失的加权因子。约束损失Lc是对于ceEnc(G(·))的约束损失,以确定对于zD 的 有 效 性 函 数。3.1潜空间分析为了进一步说明我们的方法的有效性和分析模式崩溃的根本原因,我们可视化的潜在空间通过时间与约束损失。我们选择PCA作为降维方法,并将潜在向量投影到二维空间。另一种常见的可视化降维选择是t-分布随机邻域嵌入(t-SNE)[22]。对于潜在空间,我们更感因此,PCA更适合我们的分析。图2示出了BEGAN和BEGAN-CS的初步分析。我们在CelebA数据集上训练这两个模型[21]。生成的图像(Enc(G(z)和真实图像(Enc(x))的64维潜在向量经由PCA被投影到二维空间上。在该实验中,BEGAN在时期23处进入模式崩溃除了在BEGAN模式崩溃后分布形状的明显变化之外,我们的实证分析还显示了两种强模式。首先,与BEGAN相比,由BEGAN-C S生成的图像的潜在向量分布(红色)可以适应实际图像的潜在向量分布(蓝色)。BEGAN-CS的位置矢量在所有时期上更均匀地散布。第二,对于不添加约束损失的BEGAN,在不添加约束损失的情况下,可以同时获得相对于给定的约束损失的相对于给定的约束损失的相对6C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈潜在向量(Var(gen))随着时期的数量增加而快速增长。我们的假设是,真实图像和生成图像的潜在空间都扩展得太快,而且不均匀。由于训练数据的数量是固定的,随着真实图像的潜在空间的扩大,真实图像的密度降低。最后,BEGAN的生成器到达潜空间中的低密度区域,在该区域附近只有少量的真实图像的潜向量。BEGAN的生成器相比之下,BEGAN-CS具有潜在空间约束作为正则化器,其限制了真实图像的潜在空间换句话说,约束损失将Enc(G(z))的分布限制为类似于均匀分布。3.2在One-Shot中获得最佳z范围给定一个图像x*,找到一个最佳的潜在向量z* ,使得对于一些小的,G(z*)−x<*对于GANs来说是一个具有挑战性的问题传统上,z*可以∗由back-propion获得,以用于求解m*in(G(z)−n)上的最优解∗x)。我们将这个优化过程命名为zz- 搜索。但是,z*搜索是耗时,并且需要为每个推理单独运行,因此这对于现实世界的应用是不切实际的。在BEGAN-CS的情况下,约束损失作为正则化子,引导复合函数Enc(G(z))z类似于恒等函数。考虑z*的定义,其中G(z*)=x*。我们知道Enc(G(z*))由于恒等式性质应该接近z*这意味着我们可以取x*并获得Enc(x*),作为通过编码器Enc(x*)一次后对z*3.3解纠缠表示学习及其应用我们发现,BEGAN能够在无监督的环境中学习强大且高质量的解纠缠表示。潜在空间Z内的任何向量的方向具有普遍意义的语义,诸如性别、年龄、微笑和发型的混合。这些学习的表示可以与向量算术运算组合然而,这些解纠缠表示仅对潜在向量有效,这是一个强烈的限制,禁止许多GAN模型将解纠缠表示用于实际应用,因为通过z*搜索获得潜在向量需要计算。与此同时,正如我们在3.2节中所示,BEGAN-CS能够在运行中产生z*的近似通过将多个选定的表示向量添加到关于任何给定的真实图像x* 的近似z*,我们可以生成与x* 视觉上相似的图像,并且同时包含选定的表示。我们用图3中的BEGAN-CS产生的真实示例来证明这个想法在该示例中,图3d的生成的图像获取图3b和图3c所示的两种发型。对于BEGAN,它缺乏直接估计z*∗在受限空间中逃离塌陷模式7通过耗时的z*-搜索以获得合适的z*,可以强制实现相同的效果。不幸的是,z*-search在推理时造成了主要的瓶颈,因此很难在现实世界中使用。类似的应用也可以使用基于变分自动编码器(VAE)的模型[17,12,18]或其他特定于任务的GAN模型(诸如InfoGAN [5])来实现。然而,基于VAE的模型生成的图像往往是模糊的,而InfoGAN无法像BEGAN那样生成高质量的结果相比之下,我们的结果在稳定性和质量方面更有希望。时期1Var(real)=4。21Var(gen)=0。60第十一Var(real)=85。05Var(gen)=68。6421世纪Var(real)=153。42Var(gen)=123。8631世纪Var(real)=214。25Var(gen)=134。3241世纪Var(real)=268。11Var(gen)=159。71时期1Var(real)=2。0Var(gen)=1。40第十一Var(real)=3。74Var(gen)= 3。1721世纪Var(real)=3。62Var(gen)= 2。9031世纪Var(real)=3。56Var(gen)= 2。88第一百零一章Var(real)= 3。10Var(gen)= 2。50图2:我们可视化了BEGAN和BEGAN-CS在时期上的潜在向量的分布BEGAN和BEGAN-CS都是在CelebA数据集上训练的,分辨率为64×64,批量大小为64。 每个图由6,400个随机向量组成,即:e. Enc(x)和6,400个几何尺寸的空间矢量Enc(G(z))。上面的五个图由BEGAN生成,而下面的五个图由BEGAN-CS生成。基于真实图像的潜在向量在每个时期单独执行PCA。每个蓝色点表示应用PCA之后的真实图像的潜向量,并且红色点对应于所生成的图像的潜向量。每个组下的文本列出了realimages ' l at e n t v ec t or s的变化(Var(real))和generatedimage s' l at e n t v ec t or s的变化(Var(gen))。在BEGAN的训练期间,潜向量分布的方差保持增长。注意,大多数图是以10个时期的固定间隔创建的,除了右下图直接跳到第101个时期以突出BEGAN-CS的有效性。BEGAN在第41个纪元之前就已经崩溃了。BEGAN-CS开始8C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈G(Enc())=⇒(a)G(Enc()+styleA)=⇒(b)第(1)款G(Enc()+styleB)=⇒(c)第(1)款G(Enc()+styleA+styleB)=⇒(d)其他事项F ig. 3:DISENTANGLEDREPRESENS 的 示 例 。 “ 风格A“和“风格B“是两种习得的分离表征。注意,这些表示是通用的,并且可以应用于任何潜在向量z以生成具有指定属性的图像G(z+style(a)用G(Enc(x*))一次性近似z*(b)(c)学习的解纠缠表示可以与G(Enc(x))组合。(d)具有多个解纠缠表示的向量算术在这种情况下,所生成的图像具有在styleA和styleB中示出的两种发型。4实验我们使用CelebA数据集训练BEGAN-CS用于本文中提出的所有实验BEGAN-CS不采用BEGAN原始论文中控制约束损失的重要性的超参数α被设置为0。1作为默认值。我们使用L2-范数L(x;θD)=<$x−D(x)<$在整个实验中,虽然在实践中,也可以使用L1范数。对于任何没有提到的超参数,我们选择与BEGAN原始设置相同的值4.1约束损失图4、验证了约束损失的有效性我们在CelebA数据集上的BEGAN和BEGAN-CS的训练期间显示图像分辨率为64× 64,批量大小为64. BEGAN-CS可以连续训练多达100个时期,而没有任何模式崩溃、多样性损失或质量降低的迹象。相比之下,BEGAN在第25个历元遇到模式崩溃(即,图4中的时间步长B)。除了防止模式崩溃的优点之外,所提出的BEGAN-CS模型在生成高质量图像方面也保持了非常好的性能在受限空间中逃离塌陷模式9(A)(B)(C)图4:我们通过在CelebA数据集上训练BEGAN和BEGAN-CS期间在特定时期显示生成的图像来验证约束丢失的有效性图像分辨率为64×64,批量大小为64.请注意,BEGAN未能到达epochC,因为它在epoch处B.相比之下,BEGAN-CS在时期C之后存活。此外,BEGAN-CS在生成高质量图像方面保持了非常好的性能。4.2观察突然模式崩溃在我们的实验中一个有趣的发现是模式崩溃的时间。正如[3]中提到的,BEGAN可以使用全局收敛性度量来确定网络是否已经达到最终状态,或者模型是否已经崩溃。然而,在实践中,我们不能直接从收敛测度的值中观察到模式崩溃的显著证据而是BEGAN-CS开始10C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈模式崩溃的证据更经常地从k值中观察到。BEGAN中的k值控制对L(G(z))的关注程度。根据我们的观察,每当k值突然下降时,BEGAN很快就会崩溃。4.3在小数据集上更好地收敛数据集大小也是模式崩溃的时间的重要因素。在将训练数据集CelebA减少到其原始大小的1/10的设置下,BEGAN比在完整数据集上训练更早地崩溃模式崩溃的早期发生阻止BEGAN收敛到最佳状态。图6中的时间步长A另一方面,BEGAN-CS具有更稳定的训练过程。在图6中,BEGAN-CS可以在1/ 10缩小的CelebA数据集上连续优化而不会遇到模式崩溃,并且最终收敛到比BEGAN更好的状态。4.4FID评分曲线比较为了进行定量比较,以证明所提出的约束损失的有效性,我们相应地报告了图中BEGAN和BEGAN-CS随时间变化的“Fr´echetInceptionDis-tance”(FID)[11]。五、实验在64×64分辨率下进行。在图中可以看到。5、在火车上,图5:FID随时间的变化。(左)全明星。(右)1/10 CelebA。因此,BEGAN-CS的FID并不像BEGAN那样急剧增加。4.5在One-Shot中获得最佳z范围在第3.2节中,我们已经证明了BEGAN-CS可以用Enc(x)近似最优z附录A显示了使用不同GAN架构从z搜索获得的z插值这些实验可以作为比较众所周知的GAN架构的概念证明,包括FisherGAN [23],PGGAN[14] 和 BEGAN 。 实 验 结 果 表 明 , 所 获 得 的 BEGAN-CS 的 G ( Enc(x<$))在视觉上类似于x<$c。相比之下,原始的BEGAN和其他最先进的GAN需要耗时的z*-搜索10,000次迭代才能获得有竞争力的结果。这将需要340秒到3,970秒,具体取决于网络架构。在受限空间中逃离塌陷模式11(A)(B)(C)图6:BEGAN-CS在小数据集上的更好收敛性。我们在CelebA的1/ 10大小的子集上显示在训练BEGAN和BEGAN-CS期间在选定时期生成的图像训练图像的分辨率为128× 128,批量大小为24。BEGAN-CS是稳定的,并且收敛到比BEGAN特别好的状态。BEGAN的最佳状态是在时间步长A处质量下降,而BEGAN-CS可以在时间步长C处生成更高质量的结果。然而,z*搜索结果的质量仍然不稳定,并且搜索的图像经常看起来与给定的真实图像非常不同,例如错误的性别或不正确的头部姿势。在附录B中显示了使用不同GAN模型和不同优化迭代次数的z*-搜索的更多示例BEGAN-CS开始12C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈(a)实数(b)VEEGAN(c)ALI(d)BEGAN(e)BEGAN-CS图7:VEEGAN引入的合成数据集上的实验结果。(a)真实图像(b)ALI(c)BEGAN-CS图8:图像重建结果。4.6与双射模型的VEEGAN在由25个独立的高斯分布组成的合成玩具数据集上运行实验因此,我们进行了类似的实验,并在图1中提供了比较。VEEGAN、ALI、BEGAN和BEGAN-CS为7。我们发现,香草BEGAN已经可以适应大多数模式的实际数据分布,虽然它需要广泛的超参数调整。此外,BEGAN-CS可以稳定训练并收敛到更高质量的最终状态。虽然VEEGAN可以适合所有模式,但分布相对模糊,与真实数据分布不太相似。最后,ALI不能适合真实的数据分布。我们在玩具数据集上用于BEGAN和BEGAN-CS的超参数是α = 0。1,γ=25,λ=1e-4。我们使用Adam [16]优化器,lrd= 1 e-4,lrg=5e-4,β1=0.5和β2=0.999。Z的潜在维度设置为32。发生器和鉴别器均由2层前馈网络组成,具有128个节点和ReLUacivation。我们的服务将使我们的服务成为一项不可分割的功能是范围[-9/n,9/n]中的均匀随机采样器,其中n是数字层输入。我们还提出了定性比较图像重建与BEGAN-CS和ALI图。8.我们发现,所有三种方法,ALI,BiGAN和BEGAN-CS使用的损失函数,不保证重建结果是相同的真实图像。BEGAN-CS更好地保留了一些重要的特征,如头发颜色,皮肤颜色,凝视和头部姿势。在受限空间中逃离塌陷模式34.7动态表示操作在第3.3节中,我们展示了BEGAN-CS与非纠缠表示的一个新应用。通过用Enc(x*)获得z*的近似值,并应用选定的解纠缠表示,BEGAN-CS可以生成与x*在视觉上相似的图像,并同时展示选定的表示 作为概念的证明,我们将图1中添加单个表示的过程可视化。9和图中的多个表示。10个。在图9中,我们首先从Enc(x*)得到z*然后,对于每个维度i,我们用步长为1的[-5,5]中的网格值线性插值并替换第i维的潜向量z图像示出潜在空间Z的每个维度表示通用的分解表示。我们可以执行类似的视觉转换到任何z∈Z。图9显示了一些有趣的解纠缠表示。64个维度的完整可视化显示在附录C中。所学习的解纠缠表示还可以用于对潜在向量执行多个向量算术运算。此属性使我们能够通过调整对应的特征向量上的多个维度值来同时控制固定图像的多个属性。我们在图中可视化组合两种不同表示的结果。10个。5结论我们发现BEGAN存在不可预测的模式坍缩问题。模式崩溃发生的精确时间是不确定的,与生成图像的分辨率和训练数据集的大小高度相关我们提出了BEGAN与约束空间(BEGAN-CS)对解决模式崩溃的问题,并可视化的约束损失的影响,在潜在的空间。我们的实验表明,模型崩溃的问题被抑制后,添加约束损失。当训练数据集的大小比正常设置小十倍时,BEGAN-CS的性能特别好于BEGAN。这些优势使基于能量的GAN能够继续迎接下一个挑战,即生成更高分辨率的图像。我们还发现,BEGAN可以在无监督环境中学习突出和高质量的分离表示。结合BEGAN-CS能够在运行中近似z轴的特定属性,BEGAN-CS可以生成视觉上类似于给定真实图像并且能够将可调整的分辨率扩展为可预测的图像。“ 基于文本的编辑”和“基于文本的可编辑图像”是文本编辑的两个重要组成部分,它们具有不同的 潜在应用,例如样式操作和基于属性的编辑。14C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈我(a) 性别.(b) 年龄(c) 头发和皮肤的颜色。图图9:BEGAN-CS在64× 64分辨率下产生的部分解纠缠表象对于每个图像序列,最左边的图像是固定的实像x*。在每个子图中,我们首先使用Enc(x)获得z的对于每一个维度i,我们线性插值并将z*的第i个维度替换为[-5,5]中的一个值,步长为1,然后生成图像集{G(z*)}。:性别:头发和皮肤颜色:性别:年龄:年龄发型:hairstyle图图10:解开表象的二维组合在受限空间中逃离塌陷模式5引用1. 主成分分析化学计量学与智能实验室系统第二章(一)2. Arjovsky,M.,Chintala,S.,Bottou,L.:Wasserstein GANCoRR绝对值/1701.07875(2017年)3. Berthelot,D.,Schumm,T.,梅斯湖:BEGAN:边界平衡生成对抗网络。CoRR abs/1703.10717(2017)4. Bousmalis,K.,Silberman,N. Dohan,D. Erhan,D.,Krishnan,D.:无监督像素级域适应与生成对抗网络。在:2017年IEEE计算机视觉和模式识别会议,CVPR 2017,檀香山,HI,美国,2017年7月21-26日。pp. 955. 陈旭,陈旭,段玉,Houthooft河Schulman,J.,萨茨克弗岛Abbeel,P.:Infogan:通过信息最大化生成对抗网络的可解释表示学习。在:神经信息处理系统的进展29:2016年神经信息处理系统年会,2016年12月5日至10日,B arcelona,Spain。pp. 21726. Dai,B.,Fidler,S.,Urtasun河Lin,D.:通过条件GAN实现多样化和自然的 图 像 描 述 。 In : IEEE International Conference on Computer Vision ,ICCV2017,Venice,Italy,October22-29,2017. pp. 29897. 别这样,杰, Kr¨ahenb u¨hl,P., 达尔尔,T. :一个开发者有一个很好的解决方案。CoRRabs/1605.09782(2016)8. Dumoulin,V.,贝尔加齐岛Poole,B. Lamb,A.,Arjovsky,M.,马斯特罗彼得罗岛Courville,A.C.:逆向学习推理。CoRR abs/1606.00704(2016)9. Goodfellow,I.J.Pouget-Abadie,J.Mirza,M.,徐,B.,沃德-法利,D.,Ozair,S.,南卡罗来纳州考维尔Bengio,Y.:生成性对抗网。在:神经信息处理系统的进展27:2014年神经信息处理系统年会,2014年12月8日至13日,加拿大魁北克省蒙特利尔市。pp. 267210. Gwak,J.,Choy,C.B.,Garg,A.,Chandraker,M.,Savarese,S.:用于三维重建的弱CoRR abs/1705.10904(2017)11. Heusel,M.,Ramsauer,H. Unterthiner,T.,内斯勒湾Hochreiter,S.:两个时间尺度更新规则训练的甘斯收敛到一个局部纳什均衡。在:神经信息处理系统的进展30:2017年神经信息处理系统年会,2017年12月4日至9日,美国加利福尼亚州长滩。pp. 662912. 希金斯岛Matthey,L.帕尔,A.,Burgess,C.Glorot,X.,Botvinick,M.,Mohamed,S.,Lerchner,A.:beta-vae:学习基本的视觉概念与受约束的变化框架(2016)13. 辛顿通用电气Salakhutdinov,R.R.:用神经网络工作降低数据的维数。science313(5786),50414. Karras,T.,Aila,T. Laine,S.,Lehtinen,J.:GAN的逐步增长,以提高质量,稳定性和变化。CoRR abs/1710.10196(2017)15. Khan,S.H.,Hayat,M.,Barnes,N.:用于高保真图像生成的变分自动编码器的对抗训练。在:2018年IEEE计算机视觉应用冬季会议,WACV2018,美国内华达州太浩湖,2018年3月12日至15日。pp. 131216. 金玛,D.P., Ba,J.: Adam:随机最佳化的方法。Corrabs/1412.6980(2014)16C.昌角,澳-地林角,澳-地Lee,D. Juan,W. Wei和H. 陈17. 金玛D.P.威林M:自动编码变分贝叶斯Corrabs/1312.6114(2013)18. Larsen,A.B.L.,Sønderby,S.K.,Larochelle,H. Winther,O.:使用学习的相似性度量对像素之外的像素进行自动编码。In:Proceedings of the 33ndInternational Conference on Machine Learning,ICML 2016,New York City,NY,USA,June 19-24,2 0 16. pp. 155819. 莱迪格角泰斯湖胡萨尔,F.卡瓦列罗,J.,Cunningham,A.Acosta,A.Aitken,A.P.,Tejani,A.,托茨,J.,王志,Shi,W.:使用生成对抗网络的照片级真实感单幅图像超分辨率。在:2017年IEEE计算机视觉和模式识别会议,CVPR 2017,檀香山,HI,美国,7月21日至26日,2017。pp. 10520. 李,Y.,Liu,S.,杨杰,Yang,M.:生成面完成。在:2017年IEEE计算机视觉和模式识别会议,CVPR 2017,檀香山,HI,美国,2017年7月21-26日。pp. 589221. 刘志,Luo,P.,王,X.,唐X:在野外深度学习人脸属性计算机视觉国际会议(ICCV)(2015)22. Maaten , L.v.d. , Hinton , G. : 使 用 t-sne 可 视 化 数 据 。 Journal ofmachinelearn-ingresearch9(Nov),257923. Mroueh,Y.,Sercu,T.:Fisher GAN.In:Advances in Neural InformationProcessing Systems 30:Annual Conference on Neural Information ProcessingSystems 2017,4-9December2017,LongBeac h,CA,USA.pp. 251024. Radford,A.梅斯湖Chintala,S.:使用深度卷积生成对抗网络进行无监督表示学习CoRR abs/1511.06434(2015)25. Salimans , T.Goodfellow , I.J.Zaremba , W. , Cheung , V.Radford ,A.Chen,X.:改进的gans训练技术。In:Advances in Neural InformationProcessing Systems 29:Annual Conference on Neural Information ProcessingSystems2016,December5-10,2016,Barcelona,Spain.pp. 222626. Shrivastava,A.,Pfister,T.,Tuzel,O.,Susskind,J.,王伟,Webb,R.:通过对抗训练从模拟和无监督图像中学习。In:2017 IEEE Conference onComputer Vision and Pattern Recognition , CVPR 2017 , Hon-olulu , HI ,USA,July21-26,2017. pp. 224227. Souly,N.斯潘皮纳托角Shah,M.:基于生成对抗网络的半监督语义分割 In : IEEE International Conference on ComputerVision , ICCV2017 ,Venice,Italy,October22-29,2017.pp. 568928. Srivastava , A., 瓦 尔 科 夫 湖 拉 塞 尔 角 Gutmann , M. U. Sutton , C.A. :VEEGAN:使用隐式变分学习减少GAN中的模式崩溃。在:预付款神经信息处理系统30:2017年神经信息处理系统年会,2017年12月4日至9日,美国加利福尼亚州长滩。pp. 331029. Tzeng,E.,Hoffman,J.,Saenko,K.达雷尔,T.:对抗性判别域自适应。In : 2017 IEEE Conference on Computer Vision and Pattern Recognition ,CVPR2017,Honoluu,HI,USA,2017年7月21日至26日。pp. 296230. 赵,J.J.,Mathieu,M.,LeCun,Y.:基于能量的生成对抗网络。CoRRabs/1609.03126(2016)
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- C++多态实现机制详解:虚函数与早期绑定
- Java多线程与异常处理详解
- 校园导游系统:无向图实现最短路径探索
- SQL2005彻底删除指南:避免重装失败
- GTD时间管理法:提升效率与组织生活的关键
- Python进制转换全攻略:从10进制到16进制
- 商丘物流业区位优势探究:发展战略与机遇
- C语言实训:简单计算器程序设计
- Oracle SQL命令大全:用户管理、权限操作与查询
- Struts2配置详解与示例
- C#编程规范与最佳实践
- C语言面试常见问题解析
- 超声波测距技术详解:电路与程序设计
- 反激开关电源设计:UC3844与TL431优化稳压
- Cisco路由器配置全攻略
- SQLServer 2005 CTE递归教程:创建员工层级结构
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功