没有合适的资源?快使用搜索试试~ 我知道了~
10042BeautyGlow:具有可逆生成网络的陈宏仁、许家明、王思宇、曹立武、帅鸿汉、郑文煌国立交通大学{hjc.eed07g,ming2242.cm06g,joey840404.eed03,leo159753.me05,hhshuai,whcheng}@nctu.edu.tw摘要由于化妆已被广泛用于美容,通过虚拟化妆应用程序找到合适的化妆品变得流行。因此,最近的一系列研究提出将化妆从给定的参考化妆图像转移到源非化妆图像。然而,由于大量的化妆组合,它仍然是令人困惑的为了便于按需化妆转移,在这项工作中,我们提出了BeautyGlow,它将来自Glow模型的人脸图像的潜在向量分解为化妆和非化妆潜在向量。由于没有配对的数据集,我们制定了一个新的损失函数来指导分解。然后,将源图像的非化妆特征向量和参考图像的化妆特征向量有效地组合并返回到图像域以导出结果。实验结果表明,BeautyGlow的化妆品转移质量可与现有的化妆品转移方法相媲美1. 介绍正如广告语所说,“生活并不完美,但你的化妆可以完美。”如今,化妆提供了改善面部外观的方便方法,例如,粉底可以掩盖皮肤瑕疵,腮红可以打造丰满的脸颊。虽然化妆品在日常生活中无处不在,但要找到最适合的化妆品并不容易,因为1)化妆品试验耗时且不方便,以及2)有成千上万种化妆品,品牌、功能、颜色和使用方式各不相同,这导致化妆风格组合的数量更加棘手。为了解决第一个问题,提供美容功能的虚 拟 化 妆 应 用 程 序 出 现 以 方 便 化 妆 试 验 , 例 如YoucamMakeup1和Meitu2。怎么-1https://www.perfectcorp.com/app/ymk2http://makeup.meitu.com/en/图1:从参考化妆图像中提取眼影和唇彩等化妆特征,并将其转移到源非化妆图像中。化妆的亮度可以通过调整潜在空间的放大倍数来调整。然而,如何找到适合每个用户的化妆品仍然是一个悬而未决的问题。其中一个可能的解决方案是让用户从名人或朋友的参考照片中选择化妆风格,并将化妆转移到用户的脸上。例如,Guo等人 [10]提出将图像分解为三层,即,人脸结构层、皮肤细节层和颜色层,并将参考图像的每一层的信息传递到目标图像的对应层。然而,预定义的层和传输函数不是数据驱动的,因此在许多情况下倾向于生成伪像。为了直接从数据中学习,需要照片三元组(用户面部、参考化妆和传输结果)的数据集来进行学习。然而,大多数现有的数据集只提供化妆和非化妆对的图像。为了避免对这种三元组数据集的需要,[23]建议使用CNN来识别不同的化妆函数并提取相应的特征。之后,针对化妆的不同部分定义不同的损失函数,以使化妆后图像自然,例如,通过正则化特征图的内积来转移基础,10043皮肤的纹理。虽然以前的工作产生了很好的结果化妆转移,领域知识需要设计不同的功能,以产生不同的化妆。近年来,生成对抗网络(GenerativeAdversarial对于整个图像上的样式转移(例如,绘画风格),[30]提出CycleGAN通过采用两个生成器和鉴别器来结合循环一致性损失来训练两个域之间的映射函数。然而,CycleGAN只能生成一般的化妆风格,而不是特定的化妆风格。基于Cyl-ceGAN,Chang等人 [1]引入了一个非对称函数,并一起训练了一个卸妆和转移网络,以保持面部身份。此外,[19]利用GAN框架并进一步提出像素级直方图损失以最大化化妆风格的相似性,而视觉损失和周期一致性损失旨在保持身份。然而,在基于GAN的方法中没有编码器,因此不能通过内插潜在空间来调整化妆程度从轻到重调整化妆对于找到最适合的化妆是重要的,因为用户可以从一个参考图像获得许多候选者。最近的一系列研究通过基于流的生成模型合成图像,其中编码器功能是可逆的,并且通过操纵潜在空间并将其保留回真实图像空间来支持不同的应用[4,15]。由于操纵潜在空间的能力,在本文中,我们提出了一种基于Glow架构的无监督按需化妆转移方法,即BeautyGlow[15]。具体来说,Glow提供了一个通用框架来学习具有可逆函数的生成网络,这些可逆函数将输入图像编码到有意义的潜在空间中,并允许修改现有数据点。虽然Glow允许操纵潜向量,但是由于化妆和面部被混合为潜向量,因此将参考图像的局部化妆细节转移到目标图像是具有挑战性的。其中一种可能的方法是求出化妆图像的平均特征向量和非化妆图像的平均特征向量,然后将其差值作为操作的方向。然而,这种方法包含两个主要问题:1)它只能找到一般化妆而不能找到用户指定的化妆,以及2)它需要来自同一个人或相同化妆的许多图像来找到正确的平均潜在向量。为了解决这个问题,BeautyGlow首先定义了一个变换矩阵,将特征向量分解为化妆特征的特征向量和身份特征的特征向量。然而,由于缺乏配对数据,我们进一步制定了一个新的损失函数,包含每-第与其他基于GAN的方法相比,Beau- tyGlow不需要训练两个大型网络,即,generator和pixel,这使得它更稳定。最重要的是,具有变换矩阵的可逆有意义的潜在空间促进了按需化妆转移,即用户可以自由地从轻到重调整化妆3本文的贡献概述如下。• 受Glow的启发,我们提出了BeautyGlow,它可以将化妆从参考图像转移到目标形象有意义的潜在空间便于按需化妆调整。据我们所知,这是第一个基于辉光的化妆转移框架。• 提出了新的变换矩阵和损失函数来指导模型训练。值得注意的是,拟议的框架可以很容易地扩展到需要将潜像矢量分解为两个潜矢量的其它应用,例如,除雨除雾• 定 量和 定性 比 较的 实验 结 果表 明, 所 提出 的BeautyGlow方法与最先进的方法相当,对潜在向量的操作可以生成从淡妆到浓妆的逼真图像。2. 相关作品2.1. 化妆研究传统上,图像处理技术被应用于化妆转印。例如,图像类比[11]介绍了一个框架,该框架需要同一个人的一对对齐良好的化妆前和化妆后照片Guo等人通过将参考图像分解为三层来分解面部细节,并将信息从每一层转移到另一图像的对应层[10]。此外,[28]提出检测面部地标并通过使用基于肤色的GM分割调整地标来转移化妆。除了处理化妆,[17]还使用基于物理的反射模型来操纵固有图像层,以模拟照片中不同照明条件下的化妆与这些工作相比,所提出的BeautyGlow可以通过操纵潜在空间而无需后处理来执行化妆转移和化妆去除同时进行按需化妆调整。虚拟损失,补偿损失,域内损失,域间损失损失和循环一致性损失,以指导分解https://beautyglow.github.io/。100442.2. 风格迁移为了将内容和风格混合在一起,大多数作品[7,29]在CNN中使用不同的层来表示风格和内容,并将风格转换为风格。风格转换可以分为三类。1)每样式每模型(PSPM)[14,25,26,8,21,20]。PSPM需要为不同的风格训练不同的模型。随着样式的数量变大(例如,化妆),使用PSPM进行风格转移是困难和不方便的。2)每模型多样式(MSPM)[5,2,6]。MSPM只需要一个经过训练的模型,通过稍微调整实例规范化层来传输多种样式3)每个模型的基本样式(ASPM)[13,9,12]。ASPM专注于零拍摄风格转移,它可以通过风格预测网络找到转换函数来转移新的风格(在训练数据中看不到)。值得注意的是,提出的BeautyGlow属于ASPM。但与风格转移相比,化妆转移对细节的要求要比风格转移高得多。2.3. GAN风格/化妆转移由于对抗网络在生成真实感图像方面的良好性能,GAN被广泛用于图像到图像的翻译。例如,Taigman等人提出了一种通过GAN和VAE将真实照片转换为漫画人物的方法此外,[18,24,16,22]旨在通过利用GAN来传输风格,属性或特定细节。CycleGAN进一步引入了两个耦合的生成器和一个循环一致性损失来在两个不同的域之间传输图像[30],这避免了对输入输出对的要求。虽然CycleGAN可以直接用于化妆转移,即,一个生成器将一般化妆转移到非化妆面部,而另一个生成器从化妆面部去除化妆,它不能转移用户指定的风格。为了满足将特定化妆转移到非化妆面部的需求,[1]通过使用化妆生成器的两个图像(源和目标)来更改CycleGAN中的耦合生成器。生成器参照目标图像生成化妆蒙版,并将其覆盖在源图像上,以完成化妆转印。另一方面,BeautyGAN采用类似的双输入输出的思想进行化妆转移和去除,并通过匹配面部不同部分的颜色直方图来增强实例级化妆转移的正确性[19]。然而,基于GAN的方法不包含编码器来从数据构造潜在空间,因此不能通过简单地内插潜在向量来实现按需化妆转移2.4. 潜在空间适应基于似然的方法,如变分自动编码器(VAE)和Glow,生成具有潜在空间的真实图像,同时操纵潜在空间模型可以促进开发新的图像应用程序,例如,图像编辑[31]、化身合成[27]。具体来说,VAE通过最大化变分下限来优化可能性,并学习代表所有数据点的潜在空间另一方面,基于流的生成模型[3,4]构造了一个从图像空间到潜空间的双射可逆传递函数F,使得修改的潜向量可以映射回具有F−1的真实图像。Glow通过一个新的置换层进一步改进了模型架构,该置换层是在更新模型后学习的,而不是固定的置换层[15]。3. BeautyGlow3.1. 辉光我们首先介绍Glow框架[15]作为初步框架。Glow引入了一个可逆函数f,它包含一系列用于将图像映射到潜在空间的变换矩阵,其中f需要满足以下性质。(1)变换矩阵的雅可比矩阵的行列式应有效地计算(2)从潜在空间中的采样数据点z,通过使用逆变换x=f−1(z)将其映射回数据x也应该很容易获得。为了实现这些目标,Glow利用了[4]中引入的加法层耦合层代表一个双射函数,它可以有效地更新部分此外,挤压层适于实现多尺度架构,该算法将图像分割成2×2×c的子图像,再将子图像整形为1×1×4c,将图像信息压缩到通道中。最重要的是,在传播当前级别的输出到下一级别,输出的一半维度被分解出来并转储到潜在空间中,以减少计算成本和参数数量。 此外,Glow取代了置换在[4]与一个新的层,可逆的1×1conv,以避免输入向量的某些组件是左un-conv-在耦合层中改变。基于该模型,我们能够将输入图像转换为潜在空间中有意义的向量,并操纵向量进行按需化妆转移。3.2. 制剂基于Glow的潜在空间,目标是从参考化妆图像中提取化妆特征,并将其应用于源非化妆图像。具体地,考虑两个领域,非化妆图像表示为X<$Rh×w×c的域,其中h、w和c表示输入图像的高度,输入图像的宽度年龄和RGB通道的数量。将表示为Y<$Rh×w×c的化妆图像域编码到表示为Z<$Rc×h×w的潜在空间10045SRSRSSSS RSS图2:BeautyGlow的框架。 Glow变换化妆域I Y中的所有图像和非化妆域I X中的所有图像作为输入:它们被编码到潜在空间Z中,分别表示为LX和LY。从作为源非化妆图像的LX获得的向量LX和从作为参考化妆图像的LY获得的向量L Y被分解为S R两个潜在特征(FX,MX),(FY,MY)分别通过变换矩阵W。LY是由FX加上s s r r s s和MY一起和LY也可以被分解为重构潜在特征(FY,MY)。r s s s[15]第15话给定两幅图像作为输入:源图像I X∈ X和参考图像I Y∈ Y ,分别用Glow编码成两个潜向量 LX∈Z和LY∈Z。后保持面部和化妆信息作为输入特征。损失函数和模型结构的细节如下所示,而不同损失的影响在第4节中进行了评估。即,期望变换矩阵W提取面部特征,特征表示为FX=LX·W,并提取化妆fea。YsY s知觉丧失。我们首先介绍感知损失表示为M r的结构=Lr ·(I-W),其中I是恒等式矩阵在这里,我们采用添加剂配方,即,将FX和MY相加以形成化妆后的潜在向量LY∈Z,因为1)加法制剂可以在运行中计算2)加法公式的插值是直观的。Lp教W如何提取面部特征。由于原始源图像被假设为非化妆,因此我们将感知损失定义如下。Lp=<$FX−LX<$2,(1)S s然后将化妆后矢量LY解码回图像域作为化妆后图像IY∈Y。BeautyGlow的模型架构如图2所示。然而,如何学习将潜在向量完美地分解为潜在面部特征和潜在化妆特征的变换矩阵W仍然具有挑战性。3.3. 目的为了应对这一挑战,我们引入了几个损失来指导分解。1)提出了利用感知损失提取人脸特征的方法。2)设计了域内丢失和域间丢失,保证了化妆后图像和卸妆后图像分别处于化妆域和非化妆域。3)脱妆就是提取妆容的特征。4)循环一致性损失这限制了面部潜在fea之间的距离,真实FX和原始源图像的潜在特征L X.化妆损失。由于参考图像的特征向量包括化妆特征,这意味着W应该能够区分面部特征和化妆特征。然而,不存在表示化妆风格的图像,并且因此不能通过经由Glow传送图像因此,训练如何描述具有多个潜在特征的化妆风格是具有挑战性的在这里,我们首先通过假设人脸图像的潜在特征由面部特征和化妆特征组成来解决这个问题。当面部特征10046RRRRRSRSSs s sr除此之外,其余的都是化妆品。 同时由于源图像的矢量,即,供参考。 另一方面如果Ys如Glow[15]所示,属性可以通过操纵图像的潜在特征。 所以我们我们乘以Ls对于(I-W),它应该是接近的作为参考潜在特征MY的组成潜在特征。首先计算所有有标记的图像的平均潜向量,记为L<$Y,以及所有没有标记的图像的平均潜向量,记为L<$X。由于差值(L<$Y−L<$X)表示从非补偿特征向量到补偿特征向量的方向,该方向应类似于MY,因此我们将补偿损失Lm公式化如下。因此,损失函数被公式化为Lcyc=<$LY W−FX<$2+<$LY(I−W)−MY<$2(6)完全损失。总而言之,总损失函数L定义如下。Lm=<$M Y−(L<$Y−L<$X)<$2。(二)域内丢失。补偿损失只迫使M Y与非补偿特征向量到补偿特征向量的方向相似,而非补偿特征向量和补偿特征向量的质心没有被充分利用。参考图像的面部特征向量FY应该接近非化妆域而不是化妆域。此外,化妆后的特征向量(LY)应该接近化妆域而不是非化妆域。因此,我们使用所有非化妆图像的平均潜向量L<$X来表示非化妆域的质心,并且使用所有化妆图像的平均潜向量L<$Y来表示化妆域的质心。域内损失定义为:Lintra=F Y−L<$X2+LY−L<$Y2。(三)L=Lp+λcyc Lcyc+λm Lm+λia Lintra+λie Linter(七)其中λcyc、λm、λia和λie是控制每个项的相对重要性变换矩阵W可以通过等式7中的目标函数用基于梯度下降的方法来训练,这将在后面详细描述。4. 实验结果在本节中,我们首先描述实现细节和训练参数设置。之后,我们简要介绍了基线,这是最先进的化妆转移方法。我们进行定性和定量实验,以与基线进行比较。对BeautyGlow的不同损耗进行了定性分析,R S也有介绍。最后,我们展示了流动的优势基于方法通过呈现化妆结果从光域间丢失。除了域内损失外,我们还引入了域间损失,以确保FY远离化妆域的质心,从而清楚地去除合成人脸特征向量和化妆特征重,这是简单地通过内插的潜在向量和反转回图像域。4.1. 实现细节有效地与此同时,LY也应该离开培训管道。我们评估我们的方法在MT从非化妆域的质心。因此,我们-计算域间损耗如下。代替L2范数,我们计算两个潜在向量A和B之间的相似度为N总和(A B)数据集[19]由大约4000张女性图像(1000张非化妆图像和3000张化妆图像)组成。MT数据集包括不同的种族,姿势,表情和化妆风格,从微妙到沉重。因此,我们首先使用预先训练的权重遵循Glow [15Sim(A,B)=N、(四)|B||B|Glow最初在5台机器上训练,每台机器上有8个GPU。由于GPU哪里表示逐元素乘法,|·|去和GPU内存,我们调整训练图像大小,注意矩阵的L2范数损失函数是前-被问及Linter=(1+Sim(F Y,L<$Y))+(1+Sim(LY,L<$X))(5)128x128 训练Glow模型需要大约3天的时间,MT数据集。此外,由于分辨率约束,我们首先应用面部解析,即,分开不同的面部部位,保留化妆细节。图像是分开的(有/没有俄.西化妆)到左眼,右眼,嘴唇,和其余的眼睛,因为循环一致性损失。 为了保持人脸和化妆信息,在潜空间中还设计了两个周期的一致性损失。具体地,如果我们将化妆后的潜在向量相乘,即,LY,用变换矩阵W,它应该接近面部潜伏期嘴唇也会因化妆而发生显著变化。请注意,我们只训练单个W,它由面部的在后处理中,我们使用泊松混合来整合生成的化妆面部和源图像。10047参考资料来源Liao et al. [30]第21话:我的世界 [1]我们的参考资料来源Liao et al. [30]第21话:我的世界 [19]我们的图3:化妆品转移结果培训详情。给定未配对的化妆和非化妆图像的数据集,我们首先使用Glow将图像转换之后,我们使用Adam优化器通过等式7中的目标函数训练变换矩阵W学习率设置为0.001,批量大小为100。的变换矩阵W的大小为128× 128,而感知损失、补偿损失、帧内-帧间损失域丢失、域间丢失和周期一致性丢失被设置为(λp= 0. 01,λ cyc= 0. 001,λ m= 0. 1,λ intra= 0。1,λinter= 1000)。4.2. 基线通过定性和定量的实验,将BeautyGlow与传统方法、风格转移和图像域采用等方法进行了比较。深度图像类比[21]通过CNN提取特征,并将图像类比的概念适应于深度特征空间,以获得语义上有意义的密集对应。在这里,我们添加了WLS过滤器来保留照片到照片传输的细节CycleGAN[30]是一种无监督的图像到图像的翻译工作,它不需要配对的图像。因此,化妆图像和非化妆图像被视为两个不同的域进行训练。PairedCycleGAN[1]是一种成对的图像到图像化妆转移方法,旨在将特定的参考化妆转移到源图像。BeautyGAN[19]是一种实例级化妆转移方法,用于通过GAN进行化妆转移和卸妆。通过对人脸不同区域的颜色直方图进行匹配,增强了图像的分割效果.4.3. 定性比较在图3中,我们展示了基线和我们的结果的定性比较。Im-age Analogy产生的结果显示,眼影和眼线消失了,只有细微的颜色变化留在眼睛周围。这是因为它应用了整体图像变换,除了化妆以外的部分,包括肤色和头发也可能被改变为不自然的颜色。与图像分析相比CycleGAN [30]仅在非化妆面部合成一般化妆。由于图像仅在化妆和非化妆两个一般域中传输,因此无法调整化妆风格或量。一般的化妆,虽然现实,不能用于特定的化妆试验。此外,PairedCycleGAN [1]可以成 对 地 真 实 和 正 确 地 转 移 化 妆 。 然 而 ,PairedCycleGAN的缺点是,化妆是由固定的对抗网络生成的,因此用户无法调整化妆以减轻或加重。因此,当转移一些浓妆时,结果可能看起来令人不愉快并且有时不现实,但是用户只能找到具有较淡化妆的新参考图像,这是耗时的并且甚至是不可行的。与基线相比,我们的方法成功地分解了化妆潜在向量和非化妆潜在向量,因此它不会像风格转移那样严重改变图像的外观与此同时,我们可以生成一个现实的10048我们参考参考来源w.o. 我是w.o. LintraSourcew.o. 我是w.o. 我们内部的L图4:BeautyGlow不同损失项的分析表1:用户研究结果偏好比较我们的结果基线Ours / Liao等人 [21]百分之六十百分之四十Ours / Li et al. [19个]百分之五十五百分之四十五Ours / Chang et al. [1]第一章百分之四十五百分之五十五和精确的化妆为一个非化妆脸媲美PairedCycleGAN。在第4.6节中,我们展示了微调化妆量并为每张脸定制化妆量以获得完美效果的能力4.4. 定量比较为了定量评估BeautyGlow,对50名志愿者(34名男性和16名女性)进行了用户研究,年龄从18岁到35岁。为了简化比较过程,使用标准A/B检验。因此,要求每个用户将BeautyGlow与Image Analogy [21]、BeautyGlow与PairedCycle- GAN [1]以及BeautyGlow与BeautyGAN [19]的结果进行比较。对于每个用户,我们随机选择15对源图像和参考图像,并通过不同的方法生成结果。为了避免偏倚,A/B检验的不同方法的位置也是随机选择的。表1显示了A/B测试的结果。为了便于比较,我们将投票标准化,并获得偏好百分比-年龄。结果表明,BeautyGlow的性能明显优于Image Analogy,而与BeautyGAN和PairedCycleGAN相当.请注意,我们观察到一些不寻常的情况下,用户偏好下降,而转移浓妆。有些夸张的妆容不适合源图像,迫使用户选择一个相当微妙的化妆脸因此,通过我们模型中的潜在空间操作,我们可以微调化妆量以获得更受欢迎的外观。4.5. 损失分析我们引入五个损失来训练转换函数。在图4中,我们通过训练不带损失项的变换函数W来显示两个重要损失项的结果。当去除Lm时,变换矩阵学习化妆特征而没有平均化妆fea。真的。因此,化妆风格被过度增强,导致不自然的化妆后图像,特别是在眼睛区域。另一方面,在没有Lintra的情况下,化妆后图像不包含化妆成分,因为不存在化妆成分损失项约束所得到的图像接近化妆图像的质心。另外,人脸特征应该在非化妆图像组中,因此从化妆图像中提取的人脸特征将包括化妆特征。我们展示了不同的参考图像和源图像对的脸组件,如眼睛和嘴的结果。在前两排,没有使用化妆损失,化妆风格被过度强调,其他区域的颜色变化很大。当去除内部损失项时,结果看起来与源图像相同此外,在第二行中,没有化妆损失的结果的颜色明显比源和参考图像更亮。4.6. 潜在空间操纵BeautyGlow的突出特性是能够操纵潜在向量,以生成具有不同亮度的理智化妆风格为了展示之后的-10049参考来源0.8 1.1 1.4 1.7参考来源0.8 1.1 1.4 1.7图5:化妆妆面用不同的妆面明度,我们在潜空间中操纵妆面的轻重特征在图5中,我们合成了两种化妆风格在不同面部上的3种不同亮度,放大倍数为0.7,1.0,1.5.在第一排,随着放大倍数的增加,眼影和唇色变得越来越红。在第二排,眼影也变得更深,唇色变得更红。值得注意的是,即使化妆被放大,面部仍然没有被扭曲,这意味着变换矩阵将特征向量完全分解为面部特征和化妆特征以用于操作。5. 结论和未来工作正 如 Este' eLauder所 说 在 这 篇 文 章 中 , 我 们 提 出BeautyGlow来将来自Glow模型的潜在向量分解为化妆和非化妆潜在向量。 由于没有配对的数据集,我们制定了一个新的损失函数,包含感知损失,化妆损失,域间损失,域内损失和循环一致性损失,以指导变换矩阵的优化。实验结果表明,BeautyGlow的化妆转移质量与最先进的方法相当,而独特的操纵潜在向量的能力使BeautyGlow能够实现按需化妆转移。在未来,我们计划将建议的一般框架应用到其他图像合成应用。6. 确认这项工作得到了台湾科技部MOST-107- 2218-E-009-062基金的部分支持,MOST-107-2218-E-002-054,MOST-107-2221-E-182-025-MY 2 、 MOST-105-2628-E-009-008-MY 3、MOST-106-2221-E-009-154-MY 2和补助金编号MOST 108-2634-F-009-006-通过普适人工智能研究(PAIR)实验室。引用[1] 张 惠 文 , 卢 静 万 , 余 菲 , 亚 当 · 芬 克 尔 - 斯 坦 .Pairedcyclegan:不对称的风格转移适用于应用和卸妆 。 2018 年 IEEE 计 算 机 视 觉 和 模 式 识 别 会 议(CVPR),2018年。二三六七[2] 陈冬冬、卢远、廖静、余能海、华刚。Stylebank:神经图像风格传递的显式表示。2017年3[3] Laurent Dinh , David Krueger , and Yoshua Bengio.尼斯:非线性独立分量估计。 2014. 3[4] Laurent Dinh,Jascha Sohl-Dickstein,and Samy Bengio.使用实nvp的密度估计。2017. 二、三[5] VincentDumoulin 、 JonathonShlens 和 ManjunathKudlur。对艺术风格的博学的表现2017年国际学习表征会议(ICLR)。3[6] Michael Elad和Peyman Milanfar。通过纹理合成进行风格转换IEEE Transactions on Image Processing,2017。3[7] Leon A Gatys,Alexander S Ecker,and Matthias Bethge.艺术风格的神经算法。2016年IEEE计算机视觉和模式识别会议(CVPR),2015年。3[8] Leon A Gatys,Alexander S Ecker,Matthias Bethge,Aaron Hertzmann,and Eli Shechtman.控制感知面10050在神经风格迁移中的作用。2017年3[9] Golnaz Ghiasi , Honglak Lee , Manjunath Kudlur ,Vincent Dumoulin,and Jonathon Shlens.探索实时、任意神经艺术风格化网络的结构2017年英国机器视觉会议(BMVC),2017。3[10] 郭栋和沈泰伦。数码脸部化妆的例子。2009年一、二[11] 放大图片作者:Charles E. Jacobs,Nuria Oliver,BrianCurless,and David H.销售形象类比。在SIG中-GRAPH2[12] Wei-Lin Hsiao和Kristen Grauman。学习潜在的外观:从时尚图像中无监督地发现风格一致的在2017年IEEE国际计算机视觉会议(ICCV)上,2017年。3[13] Xun Huang和Serge J Belongie.实时任意样式传输,具有自适应实例规范化。2017年3[14] 贾斯汀·约翰逊,亚历山大·阿拉希,李飞飞。实时风格转换和超分辨率的感知损失。2016年3[15] Diederik P Kingma和Prafulla Dhariwal。Glow:具有可逆1x1卷积的生成流。arXiv预印本arXiv:1807.03039,2018。二三四五[16] 李欣英、曾鸿宇、黄佳斌、曼尼什·辛格和杨明轩。通过解纠缠的表示进行不同的图像到图像的翻译。2018年欧洲计算机视觉会议(ECCV),2018。3[17] 陈立,周坤,林志颖。通过对固有图像层的基于物理的操作来模拟化妆。2015年IEEE计算机视觉和模式识别会议(CVPR),2015年。2[18] Minjun Li ,Haozhi Huang, Lin Ma ,Wei Liu ,TongZhang,and Yugang Jiang.无监督图像到图像的翻译与堆叠周期一致的对抗网络。2018年欧洲计算机视觉会议(ECCV),2018年。3[19] 李婷婷、钱瑞和、董超、刘思、严琼、朱文武、林亮。Beautygan:实例级面部化妆转移,具有深层生成对抗网络。2018年二三五六七[20] Yijun Li , Ming-Yu Liu , Xuting Li , Ming-HsuanYang,and Jan Kautz.一个封闭形式的解决方案的照片真 实 感 图 像 风 格 化 。 2018 年 欧 洲 计 算 机 视 觉 会 议(ECCV)。3[21] Jing Liao,Yuan Yao,Lu Yuan,Gang Hua,and SingBing Kang.通过深层意象类比实现视觉属性转移。2017ACM Transactions on Graphics(TOG),2017年。三六七[22] 林建新,夏颖策,秦涛,陈志波,刘铁岩.有条件的图像到图像翻译。2018年IEEE计算机视觉和模式识别会议(CVPR),2018年。3[23] 刘思,欧新宇,钱瑞和,王伟,曹晓春。像明星一样的化妆:深层局部化妆反-FER网络2016年国际商业情报联合会议(IJCAI),2016年。1[24] Ame' lieRo yer,KonstantinosBousmalis,StephanGouws,Fred Bertsch,Inbar Moressi,Forrester Cole,and KevinMurphy.Xgan:用于多对多映射的无监督图像到图像转换。2018年国际学习表征会议,2017年。3[25] Dmitry Ulyanov,Vadim Lebedev,Andrea Vedaldi,andVic- tor S Lempitsky.纹理网络:纹理和风格化图像的前馈合成。2016年3[26] Dmitry Ulyanov , Andrea Vedaldi , and Victor SLempitsky.改进的纹理网络:在前馈风格化和纹理合成中最大化质量和多样性。2017年IEEE计算机视觉和模式识别会议(CVPR),2017年。3[27] Lior Wolf Yaniv Taigman和Adam Polyak参数化化身的无监 督 创 建 。 2017 年 IEEE 国 际 计 算 机 视 觉 会 议(ICCV),2017年。3[28] 林旭,杜扬洲,张益民。基于实例的虚拟化妆自动化框架 IEEEInternational Conference on Image Processing(ICIP),2013年。2[29] Yexun Zhang,Ya Zhang,and Wenbin Cai.分离样式和内容以实现广义的样式转换。2018年IEEE计算机视觉和模式识别会议(CVPR),2018年。3[30] J Zhu,T Park,P Isola和AA Efros。使用周期一致对抗网络的未配对图像到图像翻译,2017年。二、三、六[31] Jun-YanZhu , EliShechtmanPhilippKr aühenbuühl , 和Alexei A.埃夫罗斯自然图像流形上的生成视觉操作2016年欧洲计算机视觉会议(ECCV),2016年。3
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 十种常见电感线圈电感量计算公式详解
- 军用车辆:CAN总线的集成与优势
- CAN总线在汽车智能换档系统中的作用与实现
- CAN总线数据超载问题及解决策略
- 汽车车身系统CAN总线设计与应用
- SAP企业需求深度剖析:财务会计与供应链的关键流程与改进策略
- CAN总线在发动机电控系统中的通信设计实践
- Spring与iBATIS整合:快速开发与比较分析
- CAN总线驱动的整车管理系统硬件设计详解
- CAN总线通讯智能节点设计与实现
- DSP实现电动汽车CAN总线通讯技术
- CAN协议网关设计:自动位速率检测与互连
- Xcode免证书调试iPad程序开发指南
- 分布式数据库查询优化算法探讨
- Win7安装VC++6.0完全指南:解决兼容性与Office冲突
- MFC实现学生信息管理系统:登录与数据库操作
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功