没有合适的资源?快使用搜索试试~ 我知道了~
用于人脸属性编辑的空间注意生成对抗网络张刚1、2[0000−0003−3257−3391]、阚美娜1、3[0000−0001−9483−875X]、石光山1、3[0000−0002−8348−392X]、陈西林1[0000−0003−3024−4404]1中国科学院计算技术研究所中国科学院智能信息处理重点实验室,北京1001902中国科学院大学,北京1000493中科院脑科学与智能技术卓越中心张刚@ vipl.ict.ac.cn,{kanmeina,sgshan,xlchen}@ict.ac.cn抽象。 人脸属性编辑的目的是对人脸图像进行给定的属性。现有的大多数工作采用生成对抗网络(GAN)来操作人脸属性编辑。然而,这些方法不可避免地改变了属性不相关的区域,如图所示。1.因此,我们将空间注意力机制引入GAN框架(称为SaGAN)中,以仅改变属性特定区域而保持其余不变。我们的方法SaGAN consists的生成器和鉴别器。该生成器包含一个属性操作网络(AMN)编辑的人脸图像,和一个空间注意力网络(SAN)本地化的属性特定的区域,限制该区域内的交替AMN。判别器努力将生成的图像与真实图像区分开,并对面部属性进行分类。实验结果表明,该方法在保持属性无关区域不变的情况下,能够获得较好的视觉效果.此外,我们的方法可以受益于数据增强的人脸识别。关键词:人脸属性编辑;空间注意;数据增强1介绍面部属性编辑是将面部图像朝向给定属性改变的任务。它在人脸动画、艺术、娱乐、人脸表情识别等领域有着广泛的应用[1]、[2]、[3]、[4],近年来受到越来越多的面属性编辑的期望结果(例如,表情编辑或移除/佩戴眼镜等)该方法的特点是将属性特定区域改变为给定属性,而其余不相关区域保持不变。在早期,人脸属性编辑被视为一个回归问题,通过使用配对的训练样本,如面部正面化或面部眼镜去除。Zhu等人[5]提出了一种以人脸作为输入的人脸正面化方法2G. Zhang,M.Kan,S.Shan和X.陈Fig. 1. 面属性编辑的图示。(a)显示了输入的人脸图像,要编辑的属性是眼镜和嘴巴关闭,相应的属性特定区域分别标记在红框中。(b)示出了来自现有方法的残差图像和属性编辑图像,其中尽管要编辑的属性是局部的,但是整个图像被改变。(c)分别显示了预期的编辑图像和预期的残差图像,其中只有那些属性特定的区域应该被改变,其余的保持不变。残差图像被定义为输入面部图像与编辑后的面部图像之间图像以通过最小化逐像素图像重建损失来回归期望的正面图像为了从面部图像中移除眼镜,Zhang et al. [6]用从戴眼镜的人脸图像及其对应的不戴眼镜的人脸图像收集的训练样本训练多变量线性回归模型。这些方法的性能在很大程度上取决于成对的训练数据,然而,这是很难获得的。最近,由Goodfellow等人 [7]提出的生成对抗网络(GAN)在图像生成[8],[9],[10],图像超分辨率[11]和神经风格转移[12],[13]方面取得了很大进展。人脸属性编辑也受益于GAN,它将人脸属性编辑视为不成对的图像到图像翻译任务。传统的GAN框架由生成器和鉴别器组成。鉴别器学习将生成的图像与真实图像区分开,而生成器设法欺骗鉴别器以产生照片般逼真的图像。GAN方法将原始人脸图像作为输入,并生成具有给定属性的编辑后的人脸图像。特定生成的扩展是条件GANs(cGANs)[14],它允许在给定条件信号的情况下生成特定图像。此外,IcGAN [15]将编码器引入cGAN,形成用于面部属性编辑的可逆条件GAN(IcGAN),其将输入面部图像映射为潜在表示和属性向量。以改变后的属性向量为条件生成具有新属性的人脸图像。为了在没有配对样本的情况下更好地生成,双重学习已被引入到基于GAN的方法中[12]。在文献[12]中,通过在循环一致性损失下耦合生成及其逆映射,提出了一种有效的不成对图像平移方法CycleGANCycleGAN广泛用于萨根3一系列的应用,包括风格转移,对象变形,属性转移和照片增强。最近的一项工作StarGAN [16]也采用了循环一致性损失,但StarGAN的生成器将图像和域操作向量作为输入,这允许仅使用单个模型在多个域之间转换图像,结果令人满意然而,所有上述方法都是直接对整个图像进行操作,因此不可避免地改变了除了属性特定区域之外的其余属性无关区域为了避免改变整个图像,Shen等人[17]将面部特征编辑建模为学习稀疏残差图像,其定义为输入面部图像和期望的操作图像之间的差异。该方法在本工作中简称为ResGAN。与对整幅图像进行学习相比,对残差图像的学习通过将残差图像的大部分区域约束为零,避免了对属性无关区域的改变。这项工作是相当有见地的,主要集中在局部区域,特别是对那些本地属性的操作。然而,目标属性的位置和外观在单个稀疏残差图像中建模,这实际上比单独建模它们更难进行有利的优化,这可以从图中看出。4,其中残差图像的响应分散在整个图像中,尽管残差图像的强响应主要集中在局部区域,即使对于非线性属性也是如此。受ResGAN [17]的启发,在这项工作中,我们将空间注意力机制引入GAN,以实现更准确的人脸属性编辑。空间注意力机制允许人们选择那些先前的部分并忽略其余部分以进行更快或更准确的处理,这已经在图像分类[18],[19],[20]和语义分割[21]等中成功执行对于人脸属性编辑,可以使用空间注意机制来限制仅在属性特定区域内的操作。所提出的具有空间注意力的GAN(称为SaGAN)由生成器和判别器组成。生成器的目的是为输入图像生成具有目标属性的人脸图像该生成器由两个网络组成,一个是属性操作网络(AMN),用于编辑具有给定属性的人脸图像;另一个是空间注意力网络(SAN),用于定位特定属性区域,限制AMN在该区域内的交替。鉴别器作为生成器的对手,将生成的图像与真实图像区分开,并对人脸属性进行分类。与对整幅图像进行操作或学习稀疏残差图像的方法相比,所提出的SaGAN通过利用空间注意机制可以精确地定位用于编辑的属性特定区域实验结果表明,提出的SaGAN取得了良好的视觉效果,并进一步有利于人脸识别的数据增强。简而言之,我们的贡献可以概括为三个方面:– 将空间注意力引入到GAN框架中,形成一个端一种用于人脸属性编辑的端到端生成模型(称为SaGAN),该模型只能改变那些属性特定的区域,而保持其余不相关的区域保持不变。4G. Zhang,M.Kan,S.Shan和X.陈图二. 概述了我们提出的SaGAN,由生成器G和判别器D组成。G由一个属性操作网络(AMN)和一个空间注意网络(SAN)组成,前者用于编辑具有给定属性的人脸图像,后者用于定位特定属性区域,限制AMN在该区域内的变化。D学习将生成的图像与真实图像区分开,并对人脸属性进行分类。– 建议的SaGAN采用单一的生成器,属性作为条件信号,而不是两个双的两个逆人脸属性编辑。– 建议的SaGAN取得了相当有前途的结果,特别是对于那些本地属性与属性无关的细节保存良好此外,我们的方法也有利于人脸识别的数据增强。2具有空间注意力的生成式对抗网络在本节中,我们将首先描述具有空间注意力的生成对抗网络(SaGAN)方法的细节;并详细讨论了它与现有方法的区别。SaGAN的概述如图所示。2.对于给定的输入图像I和属性值c,面部属性编辑的目标是将I转换为属性值c。新图像I,它应该是真实的,具有属性c,并且看起来与所述输入图像不包括所述特定属性区域。SaGAN以对抗的方式由生成器G和鉴别器D2.1鉴别器鉴别器D作为生成器的对手,具有两个目标,一个是将生成的图像与真实图像区分开,另一个是对生成的图像和真实图像的属性进行分类,如图1所示二、两个分类器萨根5srcCLS都被设计为具有softmax函数的CNN,分别表示为Dsrc和Dcls。通常,两个网络可以共享前几个卷积层,然后是不同分类的完全连接层。真/假分类器D src(I)的输出表示图像I是真图像的概率,而属性分类器D cls(c)的输出表示图像I是真图像的概率|I)表示具有属性c的图像I的概率。这里,c∈ {0,1}是具有或不具有属性的二元指示符。输入图像可以是真实图像或生成图像。用于优化真/假分类器的损失被公式化为如下的标准交叉熵损失:Dsrc =EI[logDsrc(I)]+EI[log(1-Dsrc(I))],(1)其中,I是真实图像,I是生成的图像。类似地,用于优化属性分类器的损失也被公式化为标准交叉熵损失,如下所示:DCLS=EI,cg [−log D cls(c g|(1)]、(2)其中cg是真实图像I的地面实况属性标签。最后,鉴别器D的总损失函数公式化如下:minDsrc,DclsD=D+LD.(三)通过最小化Eq. (3)所得到的鉴别器D能很好地区分真假图像,并能正确地预测图像I具有属性c的概率。2.2发生器生成器G努力将输入面部图像I转换成以属性值c为条件的编辑后的面部图像I,其公式如下:I≡G(I,c),(4)G包含两个模块,表示为Fm的属性操纵网络(AMN)和表示为Fa的空间注意力网络(SAN)。AMN侧重于如何操作,SAN侧重于在何处操作。属性操纵网络将人脸图像I和属性值c作为输入,并输出编辑后的人脸图像Ia,其公式为I a= Fm(I,c).(五)空间注意力网络将面部图像I作为输入,并预测空间注意力掩模b,其用于限制AMN在该区域内的交替,公式如下:b=Fa(I),(6)LL6G. Zhang,M.Kan,S.Shan和X.陈Adv理想情况下,b的属性特定区域应该是1,其余区域应该是0。实际上,在优化之后,值可以是0和1之间的任何连续数。因此,那些具有非零注意值的区域都被视为属性特定区域,其余的零注意值被视为属性无关区域。在注意力掩模的引导下,在最终编辑的面部图像I^中,属性特定区域被朝向目标属性操纵,而其余区域保持相同,公式如下:I=G(I,c)=Ia·b+I·(1−b),(7)有利的属性编辑图像应该是真实的,正确地具有目标属性c,并且还具有适度的操纵,即。保持那些属性无关区域不变。因此,自然需要三种损失来确保这些目标的实现。首先,为了使编辑后的人脸图像具有照片般的真实感,旨在混淆真实/虚假分类器,遵循大多数基于GAN的方法:Gsrc =EI[−log D src(I)]。(八)其次,为了使I与目标属性c正确匹配,设计了属性分类损失,以强制从属性分类器对I的属性预测逼近目标值c,如下所示:GCLS=EI[−log D cls(c|I()]。(九)最后但并非最不重要的是,为了保持属性无关区域不变,采用类似于CycleGAN [12]和StarGAN [16]的重建损失,其公式如下:LG=λ1EI,c,cg[(I−G(G(I,c),cg)]+λ2EI,cg[(I−G(I,cg)],(10)记录11其中cg是输入图像I的原始属性,λ1和λ2是两个平衡参数。第一项是双重重建损失。在这种损失中,当属性编辑的图像I=G(I,c)被翻译回具有原始属性cg的图像G(G(I,c),cg)时,预期其与原始图像相同阿格岛第二项是身份重建损失,其保证输入图像I在由其自己的属性标签c_g编辑时不被修改。这里,为了更清楚的重构,采用L1范数最后,优化G的总体目标函数实现如下:minFm,FaLG=LGGCLSGrec.(十一)对于整个SaGAN网络,可以按照大多数现有的基于GAN和基于CNN的方法,以对抗的方式轻松优化生成器G和CJDLL+L+L萨根72.3讨论与CycleGAN的差异[12]。在损失函数方面,CycleGAN和我们的SaGAN是相似的,因为它们都采用了对抗损失,双重重建损失和身份重建损失,但它们在生成属性编辑图像的方式上不同。CycleGAN对整个图像进行操作以产生经编辑的图像,并且将CycleGAN的计数器编辑与CycleGAN的计数器编辑耦合。一个属性作为一个循环架构。不同的是,我们的SaGAN引入了空间注意机制,只在属性特定区域内执行属性操作,以实现更精确的属性编辑,并通过单个模型但使用不同的条件信号实现两个计数器编辑与StarGAN的差异[16]。同样,StarGAN和我们的SaGAN之间最重要的区别是StarGAN对整个图像进行操作,而我们的SaGAN只关注特定于属性的区域。StarGAN的一个优点是它可以用一个模型编辑多个属性,而我们的SaGAN只能编辑一个属性,这将是我们未来的工作。与ResGAN的差异[17]。ResGAN和我们的SaGAN是仅有的两种旨在操纵适度区域的方法,即属性特定区域,而其余部分保持不变。他们在如何实现这一目标方面意见不一。ResGAN将属性特定区域的操作建模为稀疏残差图像,通过稀疏约束确定属性特定区域。稀疏度取决于控制参数而不是属性本身。不同的是,我们的SaGAN通过从空间注意力网络预测的注意力掩模来确定特定于属性的区域,该注意力掩模是自适应于属性的,因此比简单的稀疏约束更准确。此外,ResGAN使用两个生成器对一个属性进行计数器编辑,而我们的SaGAN采用单个生成器,但具有不同的条件信号。3实现细节优化. 为了更稳定地优化对抗性真/假分类,在所有实验中,Eq. (1)和等式(8)通过使用WGAN-GP [22]进行优化,重新表示为LD=−EI[Dsrc(I)]+E<$[Dsrc(I<$)]+λgpE<$[(λg pE <$Dsrc(I<$)<$2−1)2],(12)src我Gsrc =−EI[Dsrc(I)],(13)而I~是沿着编辑图像I~和真实图像I~之间的直线均匀采样的。λgp是梯度惩罚的系数,其根据经验设置为λgp=10。网络架构。我们的SaGAN的详细架构如下所示在表1和表2中。对于发生器,AMN和SAN两个网络共享相同的网络结构,除了在输入和输出方面略有不同:1)AMN以四通道张量作为输入,其由输入组成L8G. Zhang,M.Kan,S.Shan和X.陈表1. 介绍了G. I、O、K、P和S分别表示输入通道的数量、输出通道的数量、内核大小、填充大小和步幅大小,并且IN表示实例归一化。层属性操作网络空间注意力网络L1Conv(I4,O32,K7,P3,S1),IN,ReLUConv(I3,O32,K7,P3,S1),IN,ReLUL2Conv(I32,O64,K4,P1,S2),IN,ReLUConv(I32,O64,K4,P1,S2),IN,ReLUL3Conv(I64,O128,K4,P1,S2),IN,ReLUConv(I64,O128,K4,P1,S2),IN,ReLUL4Conv(I128,O256,K4,P1,S2),IN,ReLUConv(I128,O256,K4,P1,S2),IN,ReLUL5残留块(I256、O256、K3、P1、S1)残差块(I256、O256、K3、P1、S1)L6残差块(I256、O256、K3、P1、S1)残差块(I256、O256、K3、P1、S1)L7残差块(I256、O256、K3、P1、S1)残差块(I256、O256、K3、P1、S1)L8残差块(I256、O256、K3、P1、S1)残差块(I256、O256、K3、P1、S1)L9Deconv(I256,O128,K4,P1,S2),IN,ReLUDeconv(I256,O128,K4,P1,S2),IN,ReLUL10Deconv(I128,O64,K4,P1,S2),IN,ReLUDeconv(I128,O64,K4,P1,S2),IN,ReLUL11Deconv(I64,O32,K4,P1,S2),IN,ReLUDeconv(I64,O32,K4,P1,S2),IN,ReLUL12Conv(I32,O3,K7,P3,S1),TanhConv(I32,O1,K7,P3,S1),S形表2. 提出了鉴别器D. I、O、K、P和S分别表示输入通道的数量、输出通道的数量、内核大小、填充大小和步幅大小,并且IN表示实例归一化。层鉴别器L1Conv(I3,O32,K4,P1,S2),Leaky ReLUL2Conv(I32,O64,K4,P1,S2),Leaky ReLUL3Conv(I64,O128,K4,P1,S2),Leaky ReLUL4Conv(I128,O256,K4,P1,S2),Leaky ReLUL5Conv(I256,O512,K4,P1,S2),Leaky ReLUL6Conv(I512,O1024,K4,P1,S2),Leaky ReLUL7src:CONV(I2014,O1,K3,P1,S1)cls:CONV(I1024,O1,K2,P0,S1),Sigmoid图像和给定的属性值,而SAN仅将输入图像作为输入。2)AMN输出三通道RGB图像,而SAN输出单通道注意力遮罩图像。3)AMN使用Tanh作为输出层的激活函数,因为输入图像已经像大多数现有的GAN方法一样被归一化为[-1,1],而SAN采用Sigmoid,因为注意力在[0,1]内。对于鉴别器,考虑到其有前途的性能,使用与PatchGAN [23],[12]相同的架构。培 训 设 置 。 所 有 模 型 的 参 数 均 按 均 值 为 0 、 标 准 差 为0.000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000萨根9000000000000010G. Zhang,M.Kan,S.Shan和X.陈0.02.在SaGAN的优化期间,Adam [24]在β1=0的情况下。5,β2=0。999,学习率lr = 0。0002作为优化器。对于我们所有的实验,我们在等式中设置λ1=20和λ2=100(十)、并将批大小设置为16。生成器更新一次,而CPU更新三次。4实验在本节中,我们首先说明用于实验的数据集;然后将我们的SaGAN与最近的人脸属性编辑方法在视觉性能方面进行比较;最后证明了我们的SaGAN可以通过数据增强来帮助人脸识别。4.1数据集CelebA [25]数据集包含10,177位名人的202,599张人脸图像每个人脸图像用40个二进制属性进行注释官方对齐和使用CelebA的裁剪版本,并且所有图像的大小调整为128×128。样本最多的8,177人用于训练,其余2000人人进行测试。总之,训练数据包含191,649个图像,并且测试数据包含10,950个图像,用于评估面部属性编辑和面部验证两者此外,LFW [26]数据集也用于测试所提出的SaGAN的泛化。四个属性被用作编辑的范例,包括眼镜、嘴巴_微微_张开、微笑和没有_胡子。4.2面属性编辑的视觉比较我们首先调查的结果,属性编辑和注意掩模产生的SaGAN。然后,我们将所提出的SaGAN与最先进的方法进行比较,包括CycleGAN [12],StarGAN [16]和ResGAN [17]。所有这些方法都使用相同的训练数据进行训练。它们在CelebA和LFW上进行测试SAN的研究。空间注意力网络(SAN)在SaGAN算法中起着重要的作用,它的目的是定位特定于属性的区域,从而限制人脸属性在该区域内的编辑。因此,我们可视化相应的空间注意力掩模,以弄清楚SAN如何有助于面部属性编辑的性能。如可见于图3、空间注意掩模主要集中在与属性相关的区域,而与属性无关的区域被成功抑制。这有助于保持属性不相关区域不变。对于眼镜等局部属性,空间注意掩模仅对眼睛周围有响应,而对于可能涉及全局面部运动的属性,如张嘴和微笑,空间注意掩模对更大甚至整个面部区域有响应这说明空间注意力网络可以根据要编辑的属性自适应地且有效地确定属性特定区域。萨根11图三. 在CelebA数据集上编辑我们的SaGAN的面部属性。“Mask” represents the见图4。在CelebA数据集上使用不同方法编辑Face属性眼镜CelebA 上 的 视 觉 结 果 。 图 4 和 图 图 5 示 出 了 针 对 脸 部 属 性 眼 镜 和mouth_slightly_open review在CelebA数据集上的编辑结果。与CycleGAN和StarGAN相比,ResGAN和我们的SaGAN保留了大部分属性无关区域,这是更好的。怎么-12G. Zhang,M.Kan,S.Shan和X.陈图五. Face属性mouth_slightly_open在CelebA数据集上通过不同方法编辑。图六、从CelebA数据集上的不同方法编辑面部属性no_beard。然而,在ResGAN的属性特定区域上存在一些伪影,特别是在眼镜属性上。相比之下,我们的SaGAN实现了对属性特定区域的有利操作,并保持其余不相关区域不变。其原因在于,SaGAN的生成器包含了一个空间注意力模块SAN,用于明确的特定属性区域检测,这使得属性操作网络只关注如何操作,而不管在哪里操作。图6显示了no_beard的编辑结果,所有方法都不可避免地将输入人脸的性别更改为萨根13图7.第一次会议。 在CelebA数据集上使用不同方法编辑面部属性微笑。no_beard与性别相关(例如,没有女人有胡子)。即便如此,SaGAN也会适度地修改图像,例如保留了脸颊和下巴以外的大部分区域图7示出了全局面部属性微笑的结果。毫不奇怪,SaGAN实现了更好的视觉质量,再次证明了所提出的方法的有效性。LFW的目视结果。为了研究SaGAN的泛化能力,在CelebA上训练的模型在LFW数据集上进一步评估,如图1B所示。9.可以看出,CycleGAN、StarGAN和ResGAN的所有方法都在该数据集上退化,具有图1中的那些失真结果。9,例如CycleGAN在去除胡须后将男性图像更改为女性图像。令人惊讶的是,SaGAN的表现几乎与CelebA一样好,说明了我们提出的方法的鲁棒性。见图8。CelebA数据集上的数据增强。14G. Zhang,M.Kan,S.Shan和X.陈图9.第九条。 在LFW数据集上使用不同方法编辑面属性。4.3人脸识别看到良好的视觉编辑结果,一个自然的想法是是否有利于人脸识别,如数据增强。为了研究这一点,我们通过修改属性来增加每个训练样本。如图8中,对于每个属性,将单个训练样本扩充为三个样本,例如原始人脸图像和分别添加和移除眼镜的两个人脸图像。实际上,由其自身属性编辑的人脸图像看起来与原始图像几乎相同,并且用其原始属性增强的原因只是为了简单起见,而不需要对图像的属性进行ResNet-18 [27]被用作人脸识别模型。测试在CelebA和LFW的测试集上进行,其与用于面部属性编辑的测试集相同。在CelebA上,随机选择一张人脸图像作为目标,其余的作为查询。在LFW上,采用标准协议。在这两个数据集上,性能以ROC曲线报告萨根15见图10。CelebA上的人脸验证见图11。LFW上的人脸验证图10示出了在CelebA上评估的面部验证结果。如可以观察到的,对于每个属性,具有数据增强的模型比没有数据增强的基线模型表现得更好,因为具有来自我们的SaGAN的准确属性编辑图像的增强丰富了训练数据的变化,从而产生更鲁棒的模型。在LFW上评估的人脸验证结果如图所示。11.可以看出,具有除微笑之外的所有面部属性的数据增强的模型比没有类似于CelebA上的数据增强的基线模型好得多,证明了我们的SaGAN用于面部验证的益处微笑增强的性能稍差的一个可能原因是测试数据中的笑脸很少,微笑增强使模型偏向微笑,导致性能退化。5结论和未来工作这项工作将空间注意力机制引入GAN框架,形成了一种用于更准确的人脸属性编辑的SaGAN方法。这种空间注意机制保证了只在属性特定区域内对属性进行操作,而其余不相关区域保持不变。在CelebA和LFW上的实验表明,所提出的SaGAN比现有的人脸属性编辑方法更好地表现出空间注意机制。此外,提出的SaGAN还可以通过数据增强来有益于人脸识别。在未来,我们将尝试将建议的SaGAN应用到一般的图像编辑任务。确认本工作部分得到国家重点研究发展计划基金2017YFA0700804国家自然科学基金的61390511、61772496和61532018。16G. Zhang,M.Kan,S.Shan和X.陈引用1. Ichim,A.E.,Bouaziz,S.,Pauly,M.:从手持视频输入创建动态3D化身。ACMTransactions on Graphics(ToG)34(4)(2015)452. Antipov,G.,Baccouche,M.,Dugelay,J.L.:用条件生成对抗网络面对衰老。arXiv预印本arXiv:1702.01983(2017)3. 王伟,崔志,Yan,Y.,冯杰,Yan,S.,Shu,X.,Sebe,N.:面部反复老化。IEEE计算机视觉与模式识别会议(CVPR)(2016年)4. 丁,H.,Sricharan,K.,切拉帕河:Exprgan:面部表情编辑,表情强度可控。人工智能促进协会(AAAI)(2018年)5. Zhu,Z.,Luo,P.,王,X.,唐X: 在野外恢复标准视图面 深度神经网络。IEEE计算机视觉与模式识别会议(CVPR)(2014年)6. 张志,彭Y:基于mvlr的人脸图像眼镜去除。上一篇:互动媒体时代(二零一三年)7. 古德费洛岛Pouget-Abadie,J. Mirza,M.,徐,B.,沃德-法利,D.,Ozair,S.,Courville,A. Bengio,Y.:生成性对抗网。神经信息处理系统进展(Advances inNeural Information Processing Systems,NIPS)。(2014年)8. Denton,E.L.,Chintala,S.,费格斯河等: 使用对抗网络的拉普拉斯金字塔的深度生 成图像 模型 。神经 信息处 理系统 进展 (Advances in Neural InformationProcessing Systems,NIPS)。(2015年)9. Salimans,T.古德费洛岛Zaremba,W.,Cheung,V. Radford,A. Chen,X.:改进训练gans的技术神经信息处理系统进展(Advances in(2016年)10. Berthelot,D.,Schumm,T.,梅斯湖:开始:边界平衡生成对抗网络。arXiv预印本arXiv:1703.10717(2017)11.莱 迪 格 角 泰 斯 湖 Huszár , F. , 卡 瓦 列 罗 , J. , Cunningham , A. Acosta , A.Aitken,A.,Tejani,A.,托茨,J.,王志,等:使用生成对抗网络的照片级真实感单幅图像超分辨率arXiv预印本arXiv:1609.04802(2016)12. Zhu,J.Y.,Park,T. Isola,P.,Efros,A.A.:使用周期一致对抗网络的不成对图像 到 图 像 翻 译 。 IEEE International Conference on Computer Vision ( ICCV )(2017年)13. 张,X.,Yu,F.X.,Chang,S.F.,Wang S.:深传网络:无监督域自适应。CoRR,abs/1503.00591(2015)14. Mirza,M.,Osindero,S.:条件生成对抗网。ArXiv预印本arXiv:1411.1784(2014)15. Perarnau,G.,van de Weijer,J.,Raducanu,B.,阿尔瓦雷斯,J.M.:用于图像编辑的可逆条件gansarXiv预印本arXiv:1611.06355(2016)16. 崔,Y.,Choi,M.,Kim,M.,J.W. Kim,S.,Choo,J.:Stargan:用于多域图像到图像翻译的统一生成对抗网络。arXiv预印本arXiv:1711.09020(2017)17. Shen,W.,Liu,R.:学习人脸属性操作的残差图像。IEEE计算机视觉与模式识别会议(CVPR)(2017年)18. 胡,J,Shen,L.,Sun,G.:压缩-激励网络。arXiv预印本arXiv:1709.01507(2017)19. 王福,Jiang,M.,钱,C.,杨,S.,Li,C.,张洪,王,X.,唐X:用于图像分类的剩余注意力网络。IEEE计算机视觉与模式识别会议(CVPR)(2017年)萨根1720. Fu,J.,郑洪,Mei,T.:看得更近些,看得更清楚:用于细粒度图像识别的递归注意卷积神经网络。IEEE计算机视觉与模式识别会议(CVPR)(2017年)21. 黄,Q,夏角,中国-地吴,C.,Li,S.,王玉,Song,Y.,郭俊俊:反向注意的语义分割。英国机器视觉会议(BMVC)(2017年)22. 古拉贾尼岛Ahmed,F.,Arjovsky,M.,Dumoulin,V.,Courville,A.C.:改进的瓦瑟斯坦甘斯训练。神经信息处理系统进展(NIPS)。(2017年)23. Isola,P.,Zhu,J.Y.,周,T.,Efros,A.A.:使用条件对抗网络的图像到图像翻译。IEEE计算机视觉与模式识别会议(CVPR)(2017年)24. 金玛,D.P.,Ba,J.:Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980(2014)25. 刘志,Luo,P.,王,X.,唐X:在野外深度学习人脸属性。IEEE InternationalConference on Computer Vision(ICCV)(2015年)26. Huang,G.B.,Ramesh,M.,Berg,T.,Learned-Miller,E.:在野外贴上标签的脸:研究无约束环境下人脸识别的数据库。技术报告,技术报告07-49,马萨诸塞大学,阿默斯特(2007)27. 他,K.,张,X.,Ren,S.,孙杰:深度剩余网络中的身份映射。欧洲计算机视觉会议(ECCV)(2016年)
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- StarModAPI: StarMade 模组开发的Java API工具包
- PHP疫情上报管理系统开发与数据库实现详解
- 中秋节特献:明月祝福Flash动画素材
- Java GUI界面RPi-kee_Pilot:RPi-kee专用控制工具
- 电脑端APK信息提取工具APK Messenger功能介绍
- 探索矩阵连乘算法在C++中的应用
- Airflow教程:入门到工作流程创建
- MIP在Matlab中实现黑白图像处理的开源解决方案
- 图像切割感知分组框架:Matlab中的PG-framework实现
- 计算机科学中的经典算法与应用场景解析
- MiniZinc 编译器:高效解决离散优化问题
- MATLAB工具用于测量静态接触角的开源代码解析
- Python网络服务器项目合作指南
- 使用Matlab实现基础水族馆鱼类跟踪的代码解析
- vagga:基于Rust的用户空间容器化开发工具
- PPAP: 多语言支持的PHP邮政地址解析器项目
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功