没有合适的资源?快使用搜索试试~ 我知道了~
SwapNet:基于图像的服装传输Amit Raj1、Patsorn Sangkloy1、HuiwenChang2、James Hays1、 3、Duygu Ceylan4和Jingwan Lu41佐治亚理工2普林斯顿大学3Argo AI4Adobe研究A图1.一、SwapNet可以在具有任意形状和姿势的人的两个单视图图像(A和B)之间交换服装外观抽象。我们提出了Swapnet,一个框架来转移服装的人的图像与任意的身体姿势,形状和服装。服装转移是一项具有挑战性的任务,其需要(i)将服装的特征与身体姿势和形状分离,以及(ii)在新身体上真实地合成服装纹理 我们提出了一个神经网络架构,解决这些子问题与两个特定任务的子网络。 由于获取在不同身体上显示相同服装的图像对是困难的,因此我们提出了一种新的弱监督方法,该方法通过数据增强从单个图像生成训练对。我们提出了第一个全自动的方法,服装转移无约束的图像,而不解决困难的三维重建问题。我们展示了各种传输结果,并强调了我们的优势,传统的图像到图像和anal- ogy管道。1介绍我可以在舒适的家中,在几分钟内2A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆CSCS小时的购物。在这项工作中,我们的目标是实现这一目标的算法,以转移服装信息之间的两个单视图图像描绘的人在任意姿势,形状和服装(图1)。除了虚拟试衣间应用之外,这样的系统可以用作图像编辑工具。例如,在照片拍摄之后,摄影师可能决定主体在摄影设置和照明条件的不同装备中看起来更好。服装转移对于设计构思也是有用的,以回答诸如“服装的这种类型如何影响服装的外观和制作?“这些应用需要解决联合推断人的身体姿势、形状和服装的挑战性问题大多数虚拟试穿应用程序通过简化假设来解决这一挑战。他们要么使用预定义的虚拟化身在一小组允许的姿势或需要一个准确的三维扫描的个人,以证明有限的选择衣服使用物理布模拟[1]。最近的服装恢复和转移方法[2]涉及人体的3D重建和预定义布料模板的参数估计所提出的模型拟合方法在计算上是昂贵的,并且质量受到代表性能力的限制预定义的模板。这些方法都没有解决将任意衣服转移到任意人并在图像空间中摆姿势在图像之间传递服装信息固有地需要解决三个子问题。首先,需要从输入图像中识别衣服片第二,形状,例如,每件衣服的轮廓需要通过具有可能不同的姿势和形状的两个身体转移。最后,服装的纹理需要在这个新形状中真实地合成。我们的方法侧重于解决最后两个阶段,翘曲(图2)和纹理(图6),使用学习方法。假设我们有一个图像A,描绘了所需的衣服,B,显示了目标的身体和姿势。由于两个图像之间的体型、衣服轮廓和姿势的巨大差异,学习将详细的衣服从A直接转移到B是具有挑战性的相反,我们提出首先基于B的身体分割Bbs来转移A的服装分割Acs,以生成应用程序将在B′上执行高段扫描,其中该高段与B′的边缘存在差异最终服装分割Bcs。这种分割变形操作比较容易因为它不需要传递高频纹理细节。一旦期望的服装分割B’生成后,我们接下来将′从A到B的服装细节,以Bcs为条件,以获得最终结果。在理想情况下,给定穿着完全相同服装的不同姿势的人的照片对(A,B),我们可以以监督的方式训练2阶段管道然而,这样的数据集很难获得,因此我们提出了一种新的弱监督方法,我们使用单个图像及其增强作为A和B的样本来训练扭曲和纹理化网络。我们引入了一些机制来防止网络学习身份映射,这样当A和B在测试时描绘不同的个体时,可以应用翘曲和纹理化在训练和SwapNet3A(期望的服装)B(期望的姿势)生成的结果图二.服装转移示范。测试时间,我们假设我们可以从最先进的人类解析管道访问图像的身体和服装以前的作品没有解决我们手头的问题-我们认为,服装转让在我们的不受约束的设置是一个更具挑战性的任务。它需要将目标服装从相应的身体中分离出来,并将其重新定位到另一个身体上,在这个身体上很难获得用于监督学习的理想训练数据。综上所述,我们做出了以下贡献:(1)我们提出了第一种方法,该方法在图像空间中操作,以在具有任意服装、身体姿势和形状的图像之间传输服装信息。我们的方法避免了需要三维重建或参数估计的布模板。(2)由于缺乏理想的训练数据进行监督,我们引入了弱监督学习方法来完成这项任务。2相关工作人类的分析和理解。在计算机视觉社区中,对于人类从单目图像的理解有重要的工作。我们可以将相关工作分为两种主要方法,其中一种方法明确侧重于从图像中解析服装项目[3],而其他方法则侧重于根据2D姿势[4],身体部位分割[5],3D姿势[6]或3D身体形状[7]对人体进行建模。一些方法解决了联合建模3D体型和服装的问题,但需要深度扫描形式的附加信息[8,9]。最近的工作A(DesiredB(期望服装)生成的结果4A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆Yang等人[2]是第一个从单个图像呈现高分辨率服装转移结果的自动方法。然而,该方法依赖于可变形体模型和布料模板的数据库的存在。它解决了计算上昂贵的优化,需要先验的正则化。相比之下,我们的方法完全在图像空间中操作,学习从源图像中的人体姿势和形状中解开服装特征,并将服装转移到具有任意姿势和形状的另一图像生成对抗网络(GANs)。生成对抗网络[10-条件GAN特别受欢迎,用于基于各种条件信号生成图像,例如类别信息[20],属性[21],草图[22 -24],文本[19,25]或姿势[26]。图像到图像转换网络[22,27]已经证明了以图像为条件的图像合成。我们框架的纹理化阶段受到U-Net架构的启发[28]。然而,我们有两个调节图像,其中一个提供期望的服装,另一个示出期望的身体姿势和形状。基于图像的服装合成。最近的几个作品试图解决类似于我们的问题。Lassneret al的作品。[29]提出了一种方法来生成以姿势为条件的穿着任意服装的人的图像。最近的方法[30,26]提出了一种框架,用于在保持服装不变的同时修改图像中人一些最近的作品[31,32]试图将一件独立的衣服转移到一个人的图像,而另一个作品[33]解决了给定一个人的图像生成一件独立的衣服的相反任务最后,朱等人的工作[34]基于文本描述从给定图像生成不同的服装,同时保留原始图像的姿势Yang等人[2]提出了一种不同于生成模型的管道,其涉及3D身体模型的估计,然后是布料模拟。Ma等人[35]提出了一种以无监督方式从图像中解开姿态、前景和背景的方法,使得可以使用不同的解开的表示来生成新的图像。他们没有解决我们的确切问题,即将服装从源头转移到工厂,而工厂没有确定工厂的身份。事实上,这些数据是在传输过程中丢失另一个不同之处在于,当我们在单独的布料段上操作时,它们表示要将服装转移到的服装分割提供了比姿势关键点更多的信息信号,这使我们能够更精确地将服装从源转移到目标。视觉类比。最近人们对视觉模拟流水线感兴趣,视觉模拟流水线通过推断一对图像之间的变换然后将该变换应用于新图像来合成图像。Reed等人的工作它们在简单的2D形状、3D汽车模型和视频游戏精灵上显示出良好的生成结果。Liao et al.[37]提出了一个框架,给定两个图像,ASwapNet5姿势表示阶段118 X 128 X 128图像内容服装流姿势流3 X 128 X 128阶段236 X 128 X 128服装表现U-Net18 X 128 X 128ROI池化编码器双路径和B’,生成两个数据流A’和B,因此,输入和输出的数据流形成了一个算法对(A,A’)和(B,B’)。我们对这项工作的热情在于,给定两个穿着衣服的人的全身图像,我们可以在这两个图像之间转移衣服。然而,我们的公式更具有挑战性,因为系统必须明确地推理服装的概念。3SwapNet图三.我们的管道包括两个阶段:(1)扭曲阶段,其产生与期望姿态一致的服装分割;以及(2)纹理化阶段,其使用来自期望服装图像的服装信息来合成与来自前一阶段的服装分割一致的详细服装纹理。我们提出了一个服装传输系统,可以交换一对图像之间的衣服,同时保持姿势和身体形状。我们通过将服装的概念与身体形状和姿势的概念分开来实现这一点,这样我们就可以改变人或服装,并根据我们的愿望重新组合它们给定包含穿着期望服装的人的图像A和包含穿着期望服装的人的图像B。在描绘处于目标身体形状和姿势的另一个人的情况下,我们生成由与B中相同的人组成的图像B’,该人穿着处于目标身体形状和姿势的期望服装。A.注意,A和B可以描绘穿着任意服装的不同身体形状和姿势的不同人。越来越流行的条件生成模型使用编码器-解码器类型的网络架构来变 换 输 入 图 像 以 直 接 产 生 输 出 像 素 。 最 近 的 工 作 , 如 pix2pix 和Scribbler [27,22]已经在图像翻译任务上显示了高质量的结果,其中输出中的结构和形状与输入没有太大偏差然而,我们的服装转移任务提出了独特的挑战。成功的转移涉及对输入图像的显著结构改变。如先前的工作[34]所示,直接将所需服装的形状和纹理细节转移到目标身体给网络带来太多负担,导致转移质量差。6A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆CS我们提出了一个两阶段的流水线(图3)来分别处理形状和纹理合成。具体来说,我们认为,服装和身体分割提供了一个简洁和必要的表示所需的服装和目标身体。因此,我们首先对这些分割进行操作以执行期望的在B的目标身体形状和姿势中生成服装分割,但是服装在A中。我们假设图像A的服装分割和图像B的身体分割是给定的或由以前的工作[7,3]计算的在第二阶段,我们提出了一个纹理化网络,作为输入的合成服装分割和图像的期望的服装,以生成最终的传输结果。3.1翘曲模块18 X 128 X 12818 X 128 X 128图4.第一章阶段1模块的架构经线模块由一个双路径U-网强条件的身体分割和弱条件的服装分割。我们的流水线的第一阶段,我们称之为扭曲模块,对A的服装分割Acs和B的身体分割Bbs进行操作。生成B′,一个服装分割与B的分割一致A中的形状和标签,同时严格遵循B中的身体形状和姿势如图4所示我们把这个问题作为一个条件生成过程,在这个过程中,衣服应该以A为条件,而身体则以B为条件。我们使用双路径[28]网络来解决双条件问题。双路径网络由两个编码器流组成,一个用于身体,一个用于衣服,以及一个解码器,其组合两个编码的隐藏表示以生成最终输出。我们用一个18通道的分割掩码来表示衣服,在这个掩码中,我们排除了诸如腰带或眼镜之类的小配件给定这个18通道分割图,其中每个通道包含一个服装类别的概率图,布料编码器产生大小为512× 16× 16的特征图(大小为512的16×16个特征给定颜色编码的3通道身体分割,身体编码器类似地产生特征图姿势编码器512 X 16 X 163 X 128 X 128...2 X 2 X 1024n -重新块16 X 16 X 512服装编码器上采样512 X 16 X 16布料解码器SwapNet7CSCSCS尺寸为512×16×16,代表靶体。这些编码的特征图被连接并通过4个残差块。然后对所得到的特征图进行上采样,以生成所需的18通道服装分割。所生成的图像是强烈的身体分割的条件和弱的衣服分割的条件。这是通过将服装分割编码为2× 2× 1024的窄表示来实现的,然后将其上采样为所需大小的特征图这种紧凑的表示鼓励网络提取高级信息,例如衣服项目的类型(顶部、底部、鞋子、皮肤等)。以及来自服装流的每个物品的一般形状,同时限制所生成的分割以紧密地遵循嵌入在身体分割中的目标姿势和身体形状。为了监督训练,理想情况下,我们需要地面实况三元组(Bbs+Acs如[26]。然而,这样的数据集很难获得,并且通常不是可扩展以适应服装的更大变化。相反,我们使用自我监督的方法来生成所需的三元组。具体地,给定单个图像B,我们考虑我们可以直接监督的三元组(Bbs+Bcs⇒B′然而,使用这种设置,网络会有获知身份的危险因为Bcs= B’。为了避免这种情况,我们使用Bcs的增广。我们执行随机仿射变换(包括随机裁剪和翻转)。这鼓励网络丢弃来自Bcs的位置线索,并且仅拾取关于服装段的类型和结构的高级别线索我们选择将服装分割表示为18通道概率图,而不是3通道颜色编码的分割图像,以使模型更灵活地分别扭曲每个单独的片段。在训练期间,分割图像的每个通道经历不同的仿射变换,因此网络应该学习每个通道与对应的身体片段之间的更高级别的关系推理。相比之下,对于身体分割,我们使用3通道颜色编码图像,类似于Lassner等人。[29]正如我们所观察到的,身体分割的更细粒度的编码不提供更多的信息。颜色编码的身体分割图像还提供了关于每个服装片段应该在哪里对齐的指导,这总体上提供了关于身体形状和姿势的更强的提示。另外,由于服装片段跨越多个身体片段,因此保持整个身体图像的结构比将身体片段分割成单独通道更有益。翘曲模块使用交叉熵损失和GAN损失的组合来训练具体来说,我们的扭曲模块zcs=f 1(Acs,Bbs)具有以下学习目标:Σ18LCE=−c=1(Acs(i,j)=c)(log(zcs(i,j))(1)Ladv=Exp(Acs)[D(x)]+Ezp(f1enc(Acs,Bbs))[1−D(f1dec(z))](2)L翘曲=LCE+λadvLadv(3)其中λadv Ladv是指损失的对抗分量,并且f1dec是warp模块的编码器和解码器组件权重⇒B8A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆(一)(b)第(1)款(c)第(1)款(d)其他事项(一)(b)第(1)款(c)第(1)款(d)其他事项每个分量的梯度分布被调整,使得来自每个损耗的梯度贡献大约是相同的数量级。在我们的实验中,我们观察到,添加一个小的对抗权重有助于产生更好的收敛性和形状保持的生成的分割。最后,为了训练和测试该网络,我们使用DeepFashion数据集[38],其中我们使用LIP SSL预训练网络[3]来生成服装片段,并使用“Uni t e t h e P e op l e”[ 39]来获得如图5所示的服装片段图五.阶段1分割可视化。(a)A的服装细分;(b)B的身体分割;(c)通过变形模块为B生成服装分割;(d)B的原始服装分割。3.2纹理模块图六、阶段2模块的架构纹理化模块以自我监督的方式训练输入到编码器的形状信息从服装分割获得,并且纹理信息使用ROI池化获得。18X128X128房ROI池化编码器上采样6X(3X32X32)18X16X16鉴别器VGG-19特征丢失假解码器编码器与第1级输出连接1024X2X236X128X1283X128X128l1-损失SwapNet9CSCSCS我们的第二阶段网络,纹理模块,是一个U-Net体系结构,经过训练,可以在所需的服装分割条件下生成纹理细节。身体形状和姿势B’,以及图10中所示的期望服装的嵌入。图像A.我们通过在6个身体部位中的每一个上进行ROI池化来获得这种嵌入(main身体、左臂、右臂、左腿、右腿和面部),并生成尺寸为3×16× 16的特征图,然后将其上采样到原始图像尺寸我们将这些特征图与B′堆叠,然后将它们输入U-Net。其思想是利用服装分割来控制高层结构并利用服装嵌入来引导低级色彩和细节的幻觉与第一阶段类似,我们以弱监督的方式训练纹理模块。具体地,给定输入图像B,我们认为输入是(Bcs+在B⇒B中嵌入衣服)。为了避免学习身份映射,我们通过执行随机翻转和裁剪来从B的增强计算所需服装的嵌入我们使用L1重建损失,特征损失(VGG-19)和具有DRAGAN梯度惩罚的GAN损失[40],这已被证明可以提高结果的清晰度并稳定GAN的训练。第二阶段纹理化模块f2的学习目标如下给出LL1 为||f2(z′Σ,A)−A||1′(四)Lfeat=λl||φl(f2(zcs,A))−φl(A)||二(五)LLadv=Exp(A)[D(x)]+Ezp(f2enc)[1−D(f2dec(z))](6)其中,Φ1考虑了预训练的VGG-19网络的某个层的激活该阶段的鉴别器具有以下目标:Ladvd= Exp(A)[D(x)]+ Ezp(f2enc)[1−D(f2de c(z))]+ λgpEzP(z)[||zD(z)||2](七)在测试过程中,我们使用前一阶段生成的服装分割。注意,我们通过跨通道执行argmax操作来使18通道分割图变平。这样做主要是为了防止由于级1的输出在特定像素位置处在多于1个通道中具有非零值而引起的伪影。该步骤是不可微的,因此不允许端到端训练。然而,我们可以通过跳过argmax步骤并使用softmax来对这些预训练网络进行端到端的微调我们想指出的是,我们的框架是鲁棒的输入服装和身体分割中的噪声。第二阶段对从第一阶段生成的有噪声的服装分割进行操作,并学习忽略噪声,同时填充纹理和颜色。我们的网络的主要优势在于,与[29]不同,服装分割和身体分割不需要非常干净,我们的框架就可以有效。我们的分割是通过最先进的人类解析和身体解析模型获得的,但是这些模型的预测仍然是嘈杂的,并且经常有漏洞。然而我们的网络可以学会补偿10A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆CSDP(a)(b)第(1)款(c)第(1)款(d)其他事项(e)DP(a)(b)第(1)款(c)第(1)款(d)其他事项(e)DCDC对于这些中间表示中的噪声。有噪声的衣服和身体分割提供了非常丰富和结构化的信号,而不是姿势关键点,同时不像对pix2pix和Scribbler的输入那样限制,pix2pix和Scribbler需要精确的草图或分割作为输入以生成合理的结果。此外,我们对第一阶段的输出进行一些后处理,以在将其输入第二阶段特别地,在所生成的服装分割B’中,我们将“f分割Bcs.类似地,在第二阶段结束时,我们将B中的脸部和头发像素复制到结果中。如果没有这些步骤,整个框架变得类似于安置同一个人,而不是将衣服重新定位到不同的人。4实验在本节中,我们将展示每个阶段的结果,并提供与基线的详细定量和定性比较我们首先解释基线方法,然后讨论我们的研究结果。4.1定性评价图7.第一次会议。消融研究显示需要各种增强。来自用以下训练的模型的结果:(a)无增强,(b)无翻转+仿射变换,(c)翻转+小仿射变换,(d)翻转+大仿射变换(e)在阶段2需要增强:为了分析不同类型的增强的效果,我们提出了消融研究(图7),其中阶段1被训练(a)没有增强,(b)仅具有仿射变换,(c)具有随机翻转和小仿射变换,以及(d)具有翻转和大仿射变换。虽然翻转有助于处理源和目标在帧的不同区域上的情况,但仿射变换对于处理源和目标之间的比例变化是必要的。我们还表明,作物和翻转减少泄漏文物的第二阶段(e)。SwapNet11((((((((c)(d)其他事项(((((((((见图8。与PG2的比较(a)源姿态,(b)目标姿态,(c)我们的(d)PG2。与PG2比较:我们将SwapNet与Ma et[26]他们的故事,都是关于他们的故事。我们注意到可见的高频伪影作为PG2中的第二阶段网络的结果。相比之下,如许多先前的工作所证明的,添加特征损失使得生成的质量更好,因为除了颜色之外,我们还匹配更高级别的特征统计。此外,我们看到姿态的“学习”描述(诸如身体分割)提供了对原始目标姿态的更丰富的指导,而不是如[26]中那样从姿态关键点提取手工设计的掩模此外,身体分割允许与姿势关键点一样多的控制,同时仍然受到身体形状的约束(类似于可变形部件模型)。我们评估SwapNet的性能见图9。与PG2的比较(a)源姿态,(b)目标姿态,(c)我们的,(d)在用户校正中间服装分割之后的我们的(e)PG2。设置,并且由于我们可以直接监督生成的图像应该是什么样子,因此我们可以计算SSIM度量和感知距离(1)12A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆在这对匹配的图像上此外,我们还证明了使用服装分割作为中间表示的优势(图9(d))。在服装片段不明确的情况下,用户可以编辑中间表示以更好地适配服装。与VITON和视觉模拟的比较:理想的服装产品形象视觉类比氟橡胶(阶段1)氟橡胶(阶段2)SwapNet - FEAT SwapNet -GANSwapNet见图10。SwapNet、VITON和Visual Analogy在Zolando数据集上的结果。关于SwapNet-Feat(在没有特征损失的情况下训练)和SwapNet-Gan(在没有GAN损失的情况下训练)的其他结果我们提供了与VITON[32]和深度视觉分析[37]的额外比较VITON使用两阶段方法将服装项目的产品图像转移到个人的图像上,其中第一阶段涉及使用编码器-解码器网络生成粗略转移的图像,并且第二阶段 涉 及 通 过 扭 曲 产 品 图 像 来 细 化 所 生 成 的 图 像DeepVisualAlogiesprodima g e s is eco malenalogiesfef a rA:A'::B:B '.SwapNet13具体地,给定样式和内容图像A和B’,其生成图像A’和B’。 我们高度重视VITON和Deep Visual Analogy,因为我们在野外肖像图像之间交换服装的目标任务与VITON(基于产品图像的虚拟试穿)和深度视觉类比(风格转换)的任务不同。我们无法找到其他以前的工作广告- dressing相同的问题,因为我们的,所以我们修改我们的问题设置略有比较与这些相关的,但不同的作品。我们使用VI-TON使用的测试分割进行公平比较。VITON 展 示 了 Zolando 数 据 集 上 的 服 装 转 移 [32] 。 我 们 观 察 到 , 在DeepFashion数据集上训练的模型能够泛化到Zolando数据集,而无需额外的微调。4.2定量结果我们提出了一些常见的指标,用于评估生成模型的不同模型的性能Inception分数是一个衡量一组图像看起来有多我们还提出了SSIM上的一个子集的数据,我们有配对的信息。此外,我们使用如[41]所建议的VGG感知度量(PD)。我们提出了PD(TP)-到目标服装图像的感知距离。表1.不同模型的定量指标。IS和SSIM评分越高越好,PD模型是SSIMPD(TP)PD(TC)CGAN2.110.22--PG23.060.09--Ours(w/o GAN w/ofeat)2.63 ±0.0610.840.0750.114Ours(w/o feat)2.72 ±0.0320.820.0570.100我们的(不含GAN)2.75 ±0.130.810.0610.101我们3.04 ±0.0520.830.0560.099数据集3.28-在大多数情况下,我们看到所有方法的得分都聚集在类似的值周围。IS和SSIM指标提供了一个很好的代理来度量性能,但并不是模型执行所需任务的真实度量感知损失提供了关于传输性能的更多见解。特别地,我们看到SSIM对于在没有GAN损失和特征损失的情况下训练的模型得分有利。由于网络仅在L1损失的情况下进行训练,因此SSIM预测各代非常接近地面实况。然而,利用感知度量,可以清楚地看到,无GAN和无特征损失的模型在感知上表现较差。我们看到14A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆DCDPGenDCDPGen一BB AA B我们的SwapNet模型在初始得分和感知距离方面都表现最好,在放置给定服装图像的任务上。4.3限制图11个国家。SwapNet用于衣物转移的限制第一行展示了极端姿势变化(DP:期望的姿势; DC:期望的服装; Gen:生成的图像)。第二行显示罕见类别(帽子、钱包)的闭塞。我们的框架难以处理源图像和目标图像之间的大姿态变化如果其中一个图像包含截断的身体,而另一个包含完整的身体,则我们的模型无法为缺失的下肢产生适当的细节。此外,我们的框架对帽子和太阳镜等类的遮挡很敏感,可能会生成混合工件(图11的底行)。图10中的第三行还示出了网络有时无法处理部分自闭塞。5结论我们提出了SwapNet,一个框架,单视图服装传输。我们提出了两种应用程序的需求,即反对使用“end-to-end”训练管道,此外,我们采用了一种新的弱监督训练过程,在没有监督数据的情况下,针对不同姿势的相同服装在未来,我们的目标是利用一个有监督的子集,这可能使模型能够处理更大的姿势和尺度变化。我们还可以利用[32]中的扭曲等方法,以进一步改进生成的服装中的细节。鸣谢:这项工作部分由Adobe Research和NSF奖1561968资助一BB AA BSwapNet15引用1. 周志,Shu,B.,Zhuo,S.,Deng,X.,Tan,P.,Lin,S.:用于虚拟试衣的 基 于 图 像 的 服 装 动 画 。 In : SIGGRAPH Asia 2012 技 术 简 报 , ACM(2012)332. 杨,S.,Ambert,T.,潘Z Wang,K.,尤湖Berg,T.,Lin,M.C.:从单视图图像恢复详细的服装。2016年08月归档3. Gong,K.,梁湘,Zhang,D.,中国农业科学院农业研究所所长,沈,X.,Lin,L.:《看人:自我监督结构敏感学习和人类解析的新基准IEEE计算机视觉与模式识别会议(CVPR)(July(2017年)4. Cao,Z.,Simon,T.Wei,S.E.,Sheikh,Y.:实时多人2D姿态估计使用部分亲和场。在:CVPR中。(2017年)5. Varol,G.,Romero,J.马丁,X.Mahmood,N.,布莱克,MJ拉普捷夫岛Schmid,C.:向人造人学习。在:CVPR中。(2017年)6. Rogez,G.,Weinzaepfel,P.,Schmid,C.:LCR-Net:人体姿势的定位-分类-回归。在:CVPR中。(2017年)7. Bogo,F.,Kanazawa,A.,Lassner,C.Gehler,P.Romero,J.布莱克,M.J.:SMPL:从单个图像自动估计3D人体姿势和形状。In:ECCV.(2016年)8. 陈旭,Zhou,B.,(1991年),中国地质大学,Lu,F.,Wang,L.,美国,Bi,L. Tan,P.:服装造型与设计。ACMTransactionGrhi cs34(6)(October2015)203:19. Pons-Moll,G.,Pujades,S.,Hu,S.,布莱克先生:ClothCap:无缝的4D 服 装 捕 获 和 重 定 向 。 美 国 计 算 机 学 会 图 形 学 报 , ( Proc.SIGGRAPH)36(4)(2017)两位第一作者贡献相等。10. 古德费洛岛Pouget-Abadie,J.Mirza,M.,徐,B.,沃德-法利,D.,Ozair,S.,Courville,A. Bengio,Y.:生成性对抗网。In:Advances inneuralin Formal inProocessSystems.(2014)267211. Radford,A. 梅斯湖 Chintala,S.: 使用深度卷积生成对抗网络进行无监督表示学习。arXiv预印本arXiv:1511.06434(2015)12. Denton,E.L.,Chintala,S.,费格斯河等:使用对抗网络的拉普拉斯金字塔的深度生成图像模型。在:神经信息处理系统的进展。(2015)148613. 赵,J,Mathieu,M.,LeCun,Y.:基于能量的生成对抗网络。学习表征国际会议(ICLR)(2017)14. 金玛,D.P.,Welling,M.:自动编码变分贝叶斯。学习表征国际会议(ICLR)(2014)15. Pu,Y.,甘Z赫瑙河Yuan,X.,Li,C.,Stevens,A.,Carin,L.:用于图像、标签和字幕深度学习的变分自动编码器。In:Advances inNeuralIin Ner mati o nProces.(20 16)235216. Yin , X. , Yu , X. , Sohn , K. , Liu , X. , 中 国 科 学 院 院 士 ,Chandraker ,M.:向野外大摆脸的正面化。国际计算机视觉会议(ICCV)(2017)17. Berthelot,D.,Schumm,T.,梅斯湖:开始:边界平衡生成对抗网络。arXiv预印本arXiv:1703.10717(2017)18. Karras,T.,Aila,T. Laine,S.,Lehtinen,J.:GAN的逐步增长,以提高质量,稳定性和变化。国际学习报告会议(ICLR)(2018)19. Reed,S.,Akata,Z.,Yan,X.,洛格斯瓦兰湖Schiele,B.,Lee,H.:生成对抗文本到图像合成。第33届机器学习国际会议论文集。(2016年)16A. Raj,P.Sangkloy,H,Chang,J.Hays,D.Ceylan,J.陆20. Mirza , M. , Osindero , S. : 条 件 生 成 对 抗 网 。 ArXiv 预 印 本 arXiv :1411.1784(2014)21. 卡拉坎湖Akata,Z.,Erdem,A.,Erdem,E.:学习从属性和语义布局生成户外场景的图像arXiv预印本arXiv:1612.00215(2016)22. Sangkloy,P.,卢,J,方角余,F.,Hays,J.:Scribbler:使用草图和颜色控制深度图像合成。IEEE计算机视觉与模式识别会议,CVPR(2017)23. Liu,Y.,秦,Z.,Luo,Z.,Wang,H.:自动喷漆:利用条件生成对抗网络从草图生成卡通图像。arXiv预印本arXiv:1705.01908(2017)24. 西安,W.,Sangkloy,P.,卢,J,方角余,F.,Hays,J.:Texturegan:使用纹理补丁控制深度图像合成IEEE计算机视觉与模式识别会议(CVPR)(2018)25. 张洪,徐,T.,Li,H.,Zhang,S.,(1991),中国农业科学院,黄,X.,王,X.,Metaxas,D.:Stack- gan:使用堆叠生成对抗网络进行文本到照片级逼真图像合成。国际计算机视觉会议(ICCV)(2017)26. 马,L.,Jia,X.,太阳,Q.,Schiele,B.,Tuytelaars,T.,Van Gool,L.:姿势引导人物图像生成。神经信息处理系统进展(2017)27. Isola,P.,Zhu,J.Y.,周,T.,Efros,A.A.:使用条件对抗网络的图像到图像翻译。IEEE计算机视觉与模式识别会议(CVPR)(2017)28. Ronneberger,O.,Fischer,P.,Brox,T.:U-net:用于生物医学图像分割 的 卷 积 网 络 在 : 医 学 图 像 计 算 和 计 算 机 国 际 会 议 -AssisteddIntervention,Springer(2015)23429. Lassner,C. Pons-Moll,G.,Gehler,P.V.:穿着衣服的人的生成模型。CoRR abs/1705.04098(2017)30. Zhao,B.,Wu,X.,中国农业科学院,Cheng,Z.Q.,刘洪,Feng,J.:从单视图生成多视图图像。CoRR abs/1704.04886(2017)31. Jetchev,N.,Bergmann,U.:条件类比可以:在人物图片上交换时尚文章。(09(2017年)32. Han,X.吴志,吴志,尤河Davis,L.S.:Viton:一个基于图像的虚拟试穿网络。在:CVPR中。(2018年)33. Yoo,D.,Kim,N.,公园,S.,Paek,A.S.,Kweon,I.:像素级域转移。CoRR abs/1603.07442(2016)34. Zhu,S.,Fidler,S.,Urtasun河Lin,D. Loy,C.C.:做你自己的Prada:具有结构连贯性的时尚综合。国际计算机视觉会议(ICCV)(2017)35. 马,L.,太阳,Q.,Georgoulis,S.,凡古尔湖Schiele,B.,Fritz,M.:姿势引导人物图像生成。神经信息处理系统(NIPS)(2017)36. Reed,S.E.,张玉,张玉,Lee,H.:深度视觉类比。在:N个P过程系统(NIPS)中的A v a n c e s。(2015)125237. Liao,J.,Yao,Y.,(1996 - 1997 ),美国,Yuan,L.Hua,G.,Kang,S.B.:通过深层意象类比实现视觉属性转移电影SIGGRAPH(2017)38. 刘志,Luo,P.,Qiu,S.,王,X.,唐X:Deepfashion:通过丰富的注释实现 强 大 的 IEEE 计 算 机 视 觉 与 模 式 识 别 会 议 论 文 集 ( Proceedings ofIEEEConference on Computer Vision and Pattern Recognition(2016年)39. Lassner,C. Romero,J. Kiefel,M.,Bogo,F.,布莱克,MJ Gehler,P.V.:团结人民:关闭3D和2D人类表现之间的循环IEEE计算机视觉与模式识别会议(CVPR)(July(2017年)SwapNet1740. Kodali,N.,Abernethy,J.D.,Hays,J.,Kira,Z.:gans的收敛性和稳定性。(2017年)41. 张,R. Isola,P.,埃夫罗斯,匿名戒酒会Shechtman,E.,Wang,O.:深度网络作为感知指标的不合理有效性。在:CVPR中。(2018年)
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- C++标准程序库:权威指南
- Java解惑:奇数判断误区与改进方法
- C++编程必读:20种设计模式详解与实战
- LM3S8962微控制器数据手册
- 51单片机C语言实战教程:从入门到精通
- Spring3.0权威指南:JavaEE6实战
- Win32多线程程序设计详解
- Lucene2.9.1开发全攻略:从环境配置到索引创建
- 内存虚拟硬盘技术:提升电脑速度的秘密武器
- Java操作数据库:保存与显示图片到数据库及页面
- ISO14001:2004环境管理体系要求详解
- ShopExV4.8二次开发详解
- 企业形象与产品推广一站式网站建设技术方案揭秘
- Shopex二次开发:触发器与控制器重定向技术详解
- FPGA开发实战指南:创新设计与进阶技巧
- ShopExV4.8二次开发入门:解决升级问题与功能扩展
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功