没有合适的资源?快使用搜索试试~ 我知道了~
基于风格的虚拟试衣外观流程及其在时尚电商中的应用
3470基于风格的虚拟试衣全局外观流程何森,宋一哲,陶翔萨里大学视觉、语音和信号处理中心iFlyTek-Surrey人工智能{何森,y.song,项天}@ surrey.ac.uk服装面料流程PF-AFN我们的服装面料流程PF-AFN我们的服装面料流程图1.我们的基于全局外观流的试穿模型与现有的基于局部流的SOTA方法(如Cloth-flow [13]和PF-AFN [10])相比具有明显的优势,特别是当参考图像和服装图像(顶行)之间存在较大的未对准以及困难的姿势/遮挡(底行)时。摘要基于图像的虚拟试穿旨在将店内服装适配到穿着者图像中。为了实现这一点,关键步骤是服装翘曲,其在空间上将目标服装与人物图像中的相应身体部位对准。现有方法通常采用局部外观流估计模型。因此,它们本质上容易受到困难的身体姿势/遮挡以及人和服装图像之间的大的未对准的影响(参见图1)。为了克服这一局限性,本文提出了一种新的全局外观流估计模型.首次采用基于StyleGAN的架构进行外观流估计。这使我们能够利用全局样式向量来编码整个图像上下文,以应对上述挑战。为了引导StyleGAN流生成器更加关注局部服装变形,引入流细化模块以添加局部上下文。在一个流行的虚拟试穿基准测试上的实验结果表明,我们的方法达到了新的最先进的性能。它在“野外 ” 应 用 场 景 中 特 别 有 效 1 顶 部 ) 。 代 码 可 在 :https://github.com/SenHe/Flow-Style-VTON网站。1. 介绍近期疫情导致的封城措施加快了线下店内零售向电子商务的转型2020年,全球零售电子商务销售额达到4.28万亿美元,预计2022年电子零售收入将增长至5.4万亿美元。然而,当涉及到时尚时,在线购物者错过的关键线下体验之一是可以试穿服装的更衣室。为了降低在线零售商的退货成本并为购物者提供在线相同的线下体验,最近对基于图像的虚拟试穿(VTON)进行了深入研究[9,10,13,14,19,24,38,39,42,43]。VTON模型旨在将店内服装适合个人图像。VTON模型的一个关键目标是将店内服装与人物图像中的相应身体部位对齐。这是因为店内的服装通常在空间上与人物图像不对齐(见图1)。在没有空间对齐的情况下,直接将高级细节保留图像应用于图像平移模型[18,30]以融合人物图像和服装图像中的纹理将导致生成的试穿图像中产生不真实的效果,特别是在遮挡和未对齐的区域中。3471W先前的方法通过服装翘曲来解决该对准问题,即,他们首先对店内服装进行翘曲,然后将店内服装与人的图像连接起来,并将其馈送到图像到图像转换模型中,用于最终试穿图像的生成。他们中的许多人[9,14,19,38,42,43]采用基于翘曲方法的薄板样条(TPS)[7],利用从人和服装图像中提取的特征之间的相关性。然而,正如在以前的作品[5,13,42]中分析的那样,TPS在处理复杂的扭曲方面存在局限性,例如,当衣服的不同区域需要不同的变形时。因此,最近的SOTA方法[10,13]估计密集的外观流[45]来翘曲服装。这涉及训练网络以预测表示将服装与相应的身体部位对准所需的变形的密集外观流场然而,现有的外观流估计方法是有限的,准确的服装翘曲,由于缺乏全局上下文。更具体地说,所有现有的方法都是基于局部特征的对应关系,例如,局部特征级联或相关1,为光流估计而开发[6,17]。为了估计外观流,他们做出了不切实际的假设,即来自人物图像和店内服装的对应区域位于特征提取器的相同局部接收场中。当服装和相应的身体部位之间存在较大的未对准时(图1顶部),当前基于外观流的方法将严重恶化并产生不令人满意的结果。缺乏全局上下文也使得现有的基于流的VTON方法在必须在局部邻域之外搜索对应时容易受到困难的姿势/遮挡(图1这严重限制了这些方法的“野外”使用,由此用户可以具有她自己/他自己的全身照片作为人物图像来试穿多个服装物品(例如,顶部、底部和鞋)。为了克服这一局限性,提出了一种新的全局外观流量估计模型。特别是,第一次,StyleGAN [21,22]架构用于密集外观流估计。这与现有方法[6,10,13,17]有根本区别,现有方法采用U-Net [30]架构来保留本地空间背景。使用从整个参考图像和服装图像中提取的全局样式向量使我们的模型可以轻松捕获全局上下文。然而,它也提出了一个重要的问题:它可以捕捉当地的空间背景关键的地方路线?毕竟,一个单一的风格向量似乎已经失去了当地的空间背景。为了回答这个问题,我们首先注意到StyleGAN已经成功地1值得注意的是,张量相关方法[6,10,17]具有应用于局部面部图像操作任务,其中不同的风格向量可以在不同的视点[34]和不同的形状[15,28]生成相同的面部。这表明全局样式向量确实具有编码的局部空间上下文然而,我们还注意到,尽管与U-Net相比,vanilla StyleGAN 架构[21,22因此,我们在现 有的StyleGAN生成器中引入了一个局部流细化模块,以获得更好的效果。具体来说,我们基于StyleGAN的变形模块(图2)由堆叠的变形块组成,这些变形块将全局样式向量、服装特征和人物特征作为输入。全局风格向量计算从最低分辨率的特征映射的人的图像和在商店的服装的全局上下文建模。在生成器中的每个变形为了使我们的流估计器能够对细粒度的局部外观流进行建模,例如,对于图5中的手臂和手区域,在基于样式的外观流估计部分之上的每个扭曲块中,我们引入细化层。该细化层首先扭曲服装特征图,其随后以相同的分辨率与个人特征图连接,然后用于预测局部细节外观流。本文的主要工作如下:(1)提出了一种基于风格的虚拟试衣外观流方法。这种全局流估计方法使我们的VTON模型对人和服装图像之间的大的不对准更加鲁棒这使得我们的方法更适用于(2)我们进行了广泛的实验来验证我们的方法,清楚地表明,它优于现有的国家的最先进的替代品。2. 相关工作基于图像的虚拟试穿基于图像的(2D)VTON可以分为基于解析器的方法和无解析器的方法。它们的主要区别是在推理阶段是否需要现成的人类解析器2基于解析器的方法应用人体分割图来掩蔽输入人图像中的服装区域以用于翘曲参数估计。所述戴面具的人图像与所述翘曲的服装连结,且接着馈入到用于目标试穿图像产生的产生器中。大多数方法[9,13,14,38,42,43]应用预先训练的人类解析器[11]达到全球接受领域的潜力然而,其计算相对于输入大小二次增长。为了使其易于处理,其实际实现仍然基于有限的本地社区。2有时,预训练的姿势[3]和densePose [12]检测模型也用于基于解析器的模型。3472∈∈∈FFFFGFFFFF∈∈PG为了将人物图像解析成若干预定义的语义区域,例如,头,上衣和裤子。为了更好地生成试穿图像,[42]还转换分割图以匹配目标服装。变换后的解析结果与翘曲的服装和掩蔽的个人图像一起对解析器的依赖使得这些方法对糟糕的人类解析结果敏感[10,19],这不可避免地导致不准确的扭曲和试用结果。相比之下,无解析器方法[10,19]在推理阶段仅将人物图像和服装图像作为输入它们被专门设计来消除不良解析结果所引起的负面影响这些方法通常首先训练基于解析器的教师模型,然后提取无解析器的学生模型。[19]提出了一种流水线,其使用成对的三元组来提取服装翘曲模块和试穿生成网络。[10]进一步改善[19]通过引入循环一致性以获得更好的蒸馏。我们的方法也是一个无解析器的方法。然而,我们的方法侧重于服装翘曲部分的设计,在那里我们提出了一种新的全局外观流,服装整经模块3D虚拟试穿与基于图像的VTON相比,3D VTON提供更好的试穿体验(例如,允许以任意的视角和姿势观看),但也更具挑战性。大多数3D VTON作品[2,27]依赖于3D参数化人体模型[25],并且需要扫描的3D数据集进行训练。收集大规模的3D数据集是昂贵且费力的,因此对3D VTON模型的可扩展性构成约束。为了克服这个问题,最近[44]将非参数双重人类深度模型[8]应用于单眼到3D VTON。然而,现有的3D VTON仍然生成较差的纹理细节,更多的关注,并采用了最近的国家的最先进的VTON模型[5,10]。从根本上说,外观流被用作服装变形的采样网格,因此它是信息无损的,并在细节保持优越。除了VTON,外观流在其他任务中也很受欢迎。[45]将其应用于新颖的视图合成。[1,29]还应用了外观流的思想来扭曲人物姿势转移的特征图。与现有的外观流估计方法不同,本文的方法通过风格调制,应用全局风格向量来估计外观流。因此,我们的方法本质上是优越的,在其能力,以应付大的错位。3. 方法3.1. 问题定义给定一幅人物图像(pR3×H×W)和一幅店内服装图像(gR3×H×W),虚拟试穿的目标是生成一幅试穿图像(tR3×H×W),其中g中的服装与p中的相应部位相匹配。此外,在生成的t中,来自g和p中的非服装区域的细节都应该被保留。换句话说,在p中的同一个人在t中应该看起来没有变化,除了现在穿着g。为了消除不准确的人类解析的负面影响,我们提出的模型(图2)被设计为无解析器模型。遵循前无解析器模型所采用的策略[10,19],我们首先预训练一个解析器,基于模型(FP B)。然后,它被用作知识蒸馏的老师,以帮助训练最终的无解析器模型F。F和FP B都由三部分组成,即,两个特征提取器(EP B,EPBinFP B和Ep,EginF),模块(在和在)和发电机(WP BFP BWFGP B2D方法。用于图像处理的StyleGAN StyleGAN [21,22]最近彻底改变了图像处理的研究[28,33,41]。它在图像处理任务中的成功应用通常归功于它在学习高度分离的潜在空间中的适用性。最近的努力集中在无监督的潜在语义发现[4,34,37]。[24]应用姿态调节的StyleGAN进行虚拟试穿。然而,他们的模型不能保留服装细节,并且在推理过程中速度很慢。在PB和)。以下各节将详细介绍其中每一项3.2. 预训练基于解析器的模型根据现有的无解析器模型[10,19]中的标准,首先训练基于解析器的模型PB它在所提出的无解析器模型的后续训练中以两种方式使用:(a)生成要用作输入的人物图像(p),以及(b)通过知识蒸馏来监督的训练我们的服装整经网络的设计灵感来自从StyleGAN在图像处理,特别是其超级具体而言,FPB作为输入的语义表示-3形状变形性能[28,34]。代替使用- ing风格调制来生成翘曲的服装,我们使用风格调制来预测隐式外观流,然后通过采样来用于翘曲服装。与[24]相比,这种设计更适合服装细节的保留。在VTON的上下文中,外观流首先由[13]引入。从那以后,训练集中的真人图像(pgtR3×H×W)和未配对的服装(gunR3× H × W)的分割图(分割图、关键点姿态和密集姿态)。PB的输出是原始人穿着gun的图像p。p将作为培训期间的输入根据[10],这种设计受益于我们现在3将分割图中的服装区域翻转为背景区域3473联系布吕-是ℱG2我的MGG1G/G0 G1FFFEEEE1{W}W11100PBgPIPB+GPBPIPB、、:全连接层:此外联系我们调制卷积:上采样:卷积:采样:串联传奇ℱPB图2.我们框架的示意图。预训练的基于解析器的模型PB生成输出图像作为无解析器模型的输入。这两个特征提取器分别对人物图像和服装图像进行特征提取.从人物图像和服装图像的最低分辨率特征图中warping模块接收样式向量,从所述人图像和服装图像进行特征映射,并输出外观流图。然后使用外观流来翘曲服装。最后,将翘曲的服装与人物图像连接并馈送到生成器以生成目标试穿图像。请注意,FP B仅在训练期间使用。具有配对的人物图像pgt和pgt中的服装图像g以训练无解析器模型F,即:F=arg mint−pgt,(1)其中t=F(p,g)是从F生成的试穿图像。注意,FPB仅在F的训练期间使用。3.3. 特征提取我们应用两个卷积编码器(p和g)来提取p和g的特征。 p和g共享相同的架构,由堆叠的残差块组成从Ep和Eg提取的特征可以表示为基于最初在光流估计[6,17]中提出的局部特征对应[10,13],我们的方法基于全局样式向量,首先通过样式调制估计粗略外观流,然后基于局部特征对应细化预测的粗略外观流。如图2所示,我们的扭曲模块()由N个堆叠的扭曲块(iN)组成,每个块由基于样式的外观流预测层(或范围矩形)和基于局部对应的外观流细化层(蓝色矩形)组成。具体来说,我们首先使用从Ep和Eg的第N个(最终)块输出的特征提取全局样式向量(s∈Rc),表示为{pi}N和{gi}N(为简单起见,在图2N=4pN和gN,如:pi∈Rci×hi×wi和gi∈Rci×hi×wi是特征映射s=[f(p),f(g)]、(二)从Ep中的对应残差块中提取,以及pNgNg,分别。提取的特征图将用于W来预测外观流量。3.4. 基于风格的外观流估计该模型的主要新颖组件是一个基于风格的全局外观流估计模块。与先前估计外观流量的方法不同F3474··其中fp和fg是完全连接的层,[,]表示级联。本质上,所提取的全局风格向量s4包含人的全局信息,服装,例如,位置、结构等。类似于基于样式的图像操作[15,28,33,34],我们期望全局4直觉上,s=fp(pN)足以产生表观流。但是我们经验地发现s=[fp(pN),fg(gN)]产生更好的结果。3475W∈WWFΣWWΣ∥∇ ∥G样式向量S捕获用于将g弯曲成p所需的变形。因此,它用于StyleGAN样式生成器中的样式调制,以估计外观流场。更具体地,在每个块i的基于样式的外观流预测层中,我们应用样式调制来预测粗略流:fci=convm(S(gN+1−i,U(fi−1)),s),(3)其中convm表示调制的卷积解[21],S(·,·)是采样算子,U是上采样算子,fi−1R2×hi−1×wi−1是最后一次翘曲的预测流量ing块。 注意,第一个块1在仅接受最低分辨率的衣服特征图和样式向量,即,fc1=convm(gN,s).从等式3可以看出,预测的fci取决于服装特征图和全局样式向量。因此,它具有全局感受野,并且能够处理服装和人物图像之间的大的不对准。然而,由于样式向量s是全局表示,因此作为折衷,它具有有限的准确估计局部细粒度外观流的能力(如图5所示)。因此,粗流需要局部细化。为了细化fci,我们在每个块i中引入基于局部对应的外观流细化层。它旨在估计局部细粒度外观流:46],已被证明是有效的纹理细节保存。3.5. 学习目标为了训练我们的模型,我们首先在的输出和地面真实人物图像pgt之间应用感知损失[20]:Lp=i(t)−i(pgt),(8)我其中,VGGi是预先训练的VGG网络的第i个块[35]。为了监督翘曲模型的训练,我们对翘曲的服装应用损失:Lg=g−mg·pgt,(9)其中MG是由现成的人类解析模型预测的PGT根据之前的外观流方法[10,13]中的标准,我们还对来自W中每个块的预测流应用平滑正则化:L R =1000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000我福里 =conv([S(gN+1−i,fci),pN+1−i]),(4)其中f是广义Charbonnier损失函数[36]第30段。其中,fri是预测的细化流,conv表示卷积。基本上,细化层通过局部对应来估计细化流,即,变形的人的特征和服装特征之间的对应关系在相同的感受野。注意,在fci的扭曲之后,我们可以假设gN+1−i和pN+1−i中的对应区域/特征不位于同一个感受野中。因此,我们可以应用在以前的作品中使用的局部对应[10,13]来预测局部细粒度外观流。最后,我们将粗流和局部细粒度外观流添加在fi=fci+ fri。(五)中最后一个块的预测外观流fNW用于整经服装:g∈ N=S(g,fN).(六)然后,将包装的服装图像与人物图像连接并馈送到生成器中以生成目标试穿图像:t=G([g≠,p]).(七)生成器具有编码器-解码器架构,其间具有跳过连接。我们遵循[18]3476E我pLD=p−pi,(11)E由于基于解析器的人物编码器(PB)的输入(分割图、关键点姿态和密集姿态)比无解析器模型F(人物图像)包含更多的语义信息,因此我们应用蒸馏损失(distillation loss以指导学习F中的人物编码器Ep:P B我我其中pPB是来自预先训练的基于解析器的模型中的个人编码器PB中PB.总体学习目标是:L=λpLp+λgLg+λRLR+λDLD,(12)其中λp、λg、λR和λD表示用于平衡四个目标的超参数。4. 实验数据集我们在VITON数据集上实验我们的模型5[14]。它是在以前的VTON作品中使用的最流行的数据集。VITON包含一个包含14,221个图像对6的训练集和一个2,032[5]作者在[14]中允许使用数据集。6每一对表示一个人的图像和该人身上的衣服的图像。F3477EE−W对. 人物和服装图像的分辨率256 ×192。我们还创建了一个测试数据集,由增强的VITON表示,以评估模型4)与原始数据集中的服装图像具有较大的由于VITON中的大多数测试人员图像被很好地定位,使得人员图像和服装被很好地预对准(例如,人物图像和衣服图像中的大多数对应区域大致位于相同的感受野中),因此不适合于这种评估。具体而言,增强的VITON数据集通过平移和放大/缩小随机增强VITON中的测试人员图像来创建。特别地,我们通过移动人在图像中的位置来随机增强VITON中的1/3测试人图像,并且通过放大/缩小图像中的人来随机增强VITON中的另外1/3测试图像,并且保持另外1/3测试图像不变。在此数据集上进行评估时,所有比较的模型都使用人物图像增强进行训练。实现细节我们的模型在PyTorch中实现。我们使用单个Nvidia RTX 2080-Ti GPU训练模型。我们将批量大小设置为4,并使用100个epoch训练我们用Adam opti-mizer训练模型[23]。初始学习率被设置为5e4,其在50个时期之后线性衰减。p和g中的每个残差块后面都有一个池化层,以减少空间维度。我们在实现中设置N=5和c=256。我们将在接受这项工作后发布代码。评估指标和基线我们会自动和手动评估我们的模型。在自动评估中,根据VTON的标准,我们使用结构相似性(SSIM)[40]和Fre'chet初始距离(FID)[16]评估模型性能。根据[10,31],初始评分(IS)[32]不适合评价VTON图像,因此我们在评价中不采用它在手动( 主 观 ) 评 估 中 , 我 们 在 Amazon Mechanical Turk(AMT)上运行感知给定输入的人图像、服装图像和来自两个模型的生成的试穿图像,AMT工作人员被要求投票哪个生成的试穿图像更好。每个AMT工人随机分配100张图像来比较两个模型。15名AMT工作人员参加了所有模型比较的评价。我们将我们的方法与其他基于解析器的方法VTON[14],CP-VTON [38],Cloth-flow [13],CP-VTON++ [26] 、 ACGPN [42] 、 DCTON [9] 和 ZFlow[5]。我们还与SOTA无解析器方法PF-AFN [10]进行了比较。方法翘曲解析器SSIM↑FID↓VTON [14]TPSY0.7455.71CP-VTON [38]TPSY0.7224.45CP-VTON++[26]TPSY0.7521.04布流[13]AFY0.8414.43ACGPN [42]TPSY0.8416.64DCTON [9]TPSY0.8314.82[10]第10话AFN0.8910.09Zflow [5]AFY0.8815.17布流机[13]AFN0.8910.73我们AFN0.918.89表1. VITON上不同模型的定量结果。Warping表示在不同模型中使用的变形方法。Parser表示在推理过程中是否在模型中使用了人工解析器。TPS:薄板样条。AF:外观流。* 重新训练:使用解析器自由训练范式重新训练主要结果VITON测试数据集的定量结果如表1所示。可以看出,我们的模型实现了新的最先进的性能。重要的是,考虑到先前SOTA方法PF-AFN实现的已经很低的FID分数(10.09),我们的方法可以将其进一步降低11。9%。同时,从表1中可以得出以下结论。(1)基于外观流的变形方法通常比基于TPS的变形方法表现得更好。(2)尽管它需要更多的训练时间,但无解析器的方法比基于解析器的方法要好得多。我们的模型受益于所提出的新的全局表观流估计方法,在所有评估指标上都优于复杂的SOTA无解析器方法(PF-AFN[10]和Cloth- flow [13])。人体评价结果如表2所示。结果与表1一致。我们的模型优于所有比较模型,超过10%的偏好率。不同模型的定性结果如图所示3 .第三章。总的来说,我们的方法生成了更好的试穿图像。例如,第二行和第三行中的硬姿势和遮挡。增强测试数据集的定量结果如表3所示。可以看出,我们的模型再次在增强的VITON测试数据集上表现最好。重要的是,所有其他型号的性能急剧下降。与原始VITON测试数据集相比,我们的模型仍然可以保持性能(SSIM分数)定性的例子如图4所示。只有我们的模型才能生成一致的(例如,衣服消融研究在这个实验中,我们验证了我们的外观流量估计块(i)的设计。具体地说,我们首先只使用基于全局风格调制(SM)的外观流估计来实验我们的方法,3478WW人服装公司简介ACGPNPF-AFN我们图3.VITON测试数据集上不同模型(CP-VTON++[26]、ACGPN [42]、PF-AFN [9]和我们的)的定性结果表2.在人类评估中,其他模型与我们的模型(其他模型/我们的模型)相比的偏好率。是,仅在每个i中使用等式3中的fci。然后,我们仅用细化流(RF)估计来实验我们的方法,即,在每个i中仅使用等式4中的 fri。最后,我们用我们的组合方法(SM + RF)进行实验,该方法首先通过风格调制全局估计外观流,然后通过局部对应局部细化外观流。定量结果表3.与标准VITON测试数据集相比,不同模型对增强VI-TON的定量结果及其相对性能下降(RISSSIM/RISFID)。如表4所示。我们提出的基于全局风格当它们结合在一起时,性能进一步提高。如图5所示,在没有局部细化的情况下,我们的方法(全局样式modu.方法SSIM↑FID↓BUSSSIM/BUSFIDACGPN0.8120.750.003/4.11布流机[13]0.8613.050.003/2.96[10]第10话0.8712.190.002/2.10我们0.919.910/1.02比较方法偏好率CP-VTON++[26]12.7% /87.3%ACGPN [42]20.2% /79.8%布流机[13]38.5% /61.5%[10]第10话43.2% /56.8%3479WWWW人服装ACGPN布流PF-AFN我们图4.说明了不同的VTON模型对随机定位的人物图像的鲁棒性。第一行使用原始人物图像作为输入。第二行使用垂直移位的人物图像作为输入。ACGPN [42]、Cloth-flow [13]、PF-AFN [10]。仅定位)有时不能准确地预测局部细粒度外观流,例如,袖子区域,从而产生不令人满意的试穿图像。然而,对于仅基于局部对应的外观流估计,例如,当相应的区域不位于相同的感受野中时,仅使用i中的fri如图6所示,当输入人物图像和服装图像之间存在大的未对准时,fri不能准确地估计外观流一旦首次使用fci来减少未对准,我们的模型就可以成功地克服这个问题。图5. 将结果与Wi中仅使用的fci和Wi中使用的fci+ fri进行比较。SM + RF0.918.89表4.在VTON测试数据集上,使用不同的出现流量估计方法,RF:基于局部对应的流量估计。SM:基于流量估计5. 结论本文提出了一种基于风格的服装整体外观流估计方法,通过风格调整,先对服装整体外观流进行估计,然后对服装局部外观流进行细化。我们的方法在VITON基准测试中达到了最先进的性能,并且对人和化妆品图像之间的大的未对准以及困难的姿势/遮挡更加鲁棒。我们进行了大量的实验,以显示我们的方法的优越性,并验证了我们的架构设计。图6.在输入人物图像和服装图像之间的大的未对准的情况下,比较在i中仅使用fri和在i中使用fci+ fri的结果。方法SSIM↑ FID↓人服装电子邮件:人服装电子邮件:RF0.8910.73SM0.899.843480引用[1] Badour AlBahar , Jingwan Lu , Jimei Yang , ZhixinShu,Eli Shechtman,and Jia-Bin Huang.姿态与风格:细节 保持姿 态引导 的图像 合成与 条件 stylegan 。在SIGGRAPH亚洲,2021年。3[2] BharatLalBhatnagar , GarvitaTiwari , ChristianTheobalt,and Gerard Pons-Moll.多服装网:学习从图像中打扮3d人。在ICCV,2019年。3[3] 曹哲、托马斯·西蒙、魏世恩和亚瑟·谢赫。利用局部仿射场进行实时多人二维姿态估计。在CVPR,2017年。2[4] Anton Cherepkov Andrey Voynov和Artem Babenko。导航gan参数空间进行语义图像编辑。在CVPR,2021年。3[5] Ayush Chopra , Rishabh Jain , Mayur Hemani , andBalaji Kr- ishnamurthy.Zflow:基于3D先验的门控外观流虚拟试穿。ICCV,2021。二、三、六[6] Alexey Dosovitskiy、Philipp Fischer、Eddy Ilg、PhilipHausser、Caner Hazirbas、Vladimir Golkov、Patrick VanDer Smagt、Daniel Cremers和Thomas Brox。Flownet:使用卷积网络学习光流。CVPR,2015。二、四[7] 让·杜雄Sobolev空间中极小化旋转不变半范数的样条在建设性理论的职能的几个变量,第85-100页施普林格,1977年。2[8] 瓦连京·加布,让-塞巴斯蒂安·佛朗哥,X·阿维耶·马丁,科迪莉亚·施密德和格雷戈里·罗杰斯。塑造人类:从单个图像进行非参数3D人体形状估计。在ICCV,2019年。3[9] 葛崇建,宋一兵,葛玉英,韩阳,刘伟,罗萍。解开周期一致性,实现高度逼真的虚拟试穿。在CVPR,2021年。一、二、六、七[10] Yuying Ge , Yibing Song ,Ruimao Zhang , ChongjianGe,Wei Liu,and Ping Luo.无解析器虚拟试穿通过蒸馏外观流。在CVPR,2021年。一二三四五六七八[11] Ke Gong , Xiaodan Liang , Dongyu Zhang , XiaohuiShen,and Liang Lin.深入研究人:自我监督结构敏感学习和人类解析的新基准。在CVPR,2017年。2[12] RızaA l pGuéler,Na taliaN ev er ov a,andIasonasKokkinos. 密度:野外密集的人体姿势估计。在CVPR,2018年。2[13] Xintong Han,Xiaojun Hu,Weilin Huang,and MatthewR Scott. Clothflow:一个基于流的服装人物生成模型。在ICCV,2019年。一二三四五六七八[14] Xintong Han,Zuxuan Wu,Zhe Wu,Ruichi Yu,andLarry S Davis.Viton:一个基于图像的虚拟试穿网络。在CVPR,2018年。一、二、五、六[15] Sen He , Wentong Liao ,Michael Ying Yang , Yi-ZheSong,Bodo Rosenhahn,and Tao Xiang.解开寿命面合成。ICCV,2021。二、四[16] Martin Heusel、Hubert Ramsauer、Thomas Unterthiner、Bernhard Nessler和Sepp Hochreiter。两个时间尺度更新规则训练的甘斯收敛到一个局部纳什均衡。NeurIPS,2017。63481[17] Eddy Ilg ,Nikolaus Mayer ,Tonmoy Saikia, MargretKeuper,Alexey Dosovitskiy,and Thomas Brox.Flownet2.0:深度网络光流估计的演变在CVPR,2017年。二、四[18] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and AlexeiA Efros.使用条件对抗网络的图像到图像翻译。在CVPR,2017年。一、五[19] ThibautIssenhuth,Je're'mieMary ,andCle'mentCalauzenes. 不要屏蔽你不需要屏蔽的东西:一个无解析器的虚拟尝试。在ECCV,2020。一、二、三[20] 贾斯汀·约翰逊,亚历山大·阿拉希,李飞飞。实时风格转换和超分辨率的感知损失。在ECCV,2016年。5[21] Tero Karras Samuli Laine和Timo Aila一个基于样式的生成器架构,用于生成对抗网络。在CVPR,2019年。二三五[22] Tero Karras , Samuli Laine , Miika Aittala , JanneHellsten,Jaakko Lehtinen,and Timo Aila.分析和改善stylegan的图像质量。在CVPR,2020年。二、三[23] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。2015年,国际会议。6[24] Kathleen M Lewis 、 Srivatsan Varadharajan 和 IraKemelmacher-Shlizerman。Tryongan:通过分层插值实现身体感知试穿TOG,40(4):1-10,2021. 第1、3条[25] Matthew Loper、Naureen Mahmood、Javier Romero、Gerard Pons-Moll和Michael J Black。Smpl:一个有皮肤的多人线性模型。TOG,34(6):1-16,2015. 3[26] Matiur Rahman Minar 、 Thai Thanh Tuan 、 HeejuneAhn、Paul Rosin和Yu-Kun Lai。Cp-vton+:基于图像的服装形状和纹理保留虚拟试穿。在CVPRW,2020。六、七[27] Aymen Mir,Thiemo Alldieck,and Gerard Pons-Moll.学习将服装图像的纹理转移到3d人体。在CVPR,2020年。3[28] Roy Or-El 、 Soumyadip Sengupta 、 Ohad Fried 、 EliShecht-man和Ira Kemelmacher-Shlizerman。寿命转换合成。在ECCV,第739-755页,2020年。 二、三、四[29] Yurui Ren,Xiaoming Yu,Junming Chen,Thomas HLi,and Ge Li.用于人物图像生成的深度图像空间变换。在CVPR,2020年。3[30] Olaf Ronneberger , Philipp Fischer , and ThomasBrox.U-网:用于生物医学图像分割的卷积网络在MICCAI,2015年。一、二[31] Mihaela Rosca 、 Balaji Lakshminarayanan 、 DavidWarde-Farley和Shakir Mohamed。 自动编码生成对抗网络的变分方法。arXiv预印本arXiv:1706.04987,2017。6[32] Tim Salimans、Ian Goodfellow、Wojciech Zaremba、Vicki Cheung、Alec Radford和Xi Chen。改进的gans训练技术。InNeurIPS,2016. 6[33] Yujun Shen,Ceyuan Yang,Xiaoyu Tang,and BoleiZhou.interfacegan:解释gans学习的解纠缠的面部表征。TPAMI,2020年。三、四[34] Yujun Shen和Bolei Zhou。gans中潜在语义的闭式分解。在CVPR,2021年。二、三、四3482[35] Karen Simonyan和Andrew Zisserman用于大规模图像识别的非常深的卷积网络2015年,国际会议。5[36] 孙德庆,斯特凡·罗斯,迈克尔·J·布莱克。光流估算的当前实践及其背后的原理的定量分析。IJCV,106(2):115-137,2014. 5[37] 克里奥·策勒皮斯,乔治斯·齐米罗普洛斯,和扬尼斯·帕特拉斯. Warpedganspace:在gan潜在空间中寻找非线性rbf路径。ICCV,2021。3[38] Bochao Wang,Huabin Zheng,Xiaodan Liang,YiminChen,Liang Lin,and Meng Yang.基于特征保持图像的虚拟试穿网络。在ECCV,2018。一、二、六[39] Jiahang Wang,Tong Sha,Wei Zhang,Zhoujun Li,andTao Mei.精确到最后一个细节:虚拟试穿,细节细致入微。在ACM MM,2020。1[40] Zhou Wang,Alan C Bovik,Hamid R Sheikh,and EeroP Simoncelli.图像质量评价:从误差可见性到结构相似性。TIP,13(4):600-612,2004. 6[41] Ceyuan Yang,Yujun Shen,and Bolei Zhou.语义层次结构出现在场景合成的深度生成表示中。IJCV,129(5):1451-1466,2021。3[42] 韩阳,张瑞茂,郭小宝,刘伟,左王梦,罗平.通过自适应生成-保持图像内容实现照片级真实感虚拟试穿在CVPR,2020年。一二三六七八[43] Ruiyun Yu,Xiaoqi Wang,and Xiaohui Xie. Vtnfp:一个基于图像的虚拟试穿网络,具有身体和服装特征保存功能。在ICCV,2019年。一、二[44] 赵福伟,谢振宇,迈克尔·坎普迈耶,董浩业,韩松芳,郑天祥,张涛,梁喜澳丹。M3 d-vton:一个单眼到3D的虚拟试穿网络。ICCV,2021。3[45] Tinghui Zhou,Shubham Tulsiani,Weilun Sun,JitendraMalik,and Alexei A Efros.按外观流查看合成在ECCV,2016年。二、三[46] Jun-Yan Zhu , Taesung Park , Phillip Isola , Alexei AEfros.使用循环一致对抗网络的不成对图像到图像翻译。InICCV,2017. 5
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 探索数据转换实验平台在设备装置中的应用
- 使用git-log-to-tikz.py将Git日志转换为TIKZ图形
- 小栗子源码2.9.3版本发布
- 使用Tinder-Hack-Client实现Tinder API交互
- Android Studio新模板:个性化Material Design导航抽屉
- React API分页模块:数据获取与页面管理
- C语言实现顺序表的动态分配方法
- 光催化分解水产氢固溶体催化剂制备技术揭秘
- VS2013环境下tinyxml库的32位与64位编译指南
- 网易云歌词情感分析系统实现与架构
- React应用展示GitHub用户详细信息及项目分析
- LayUI2.1.6帮助文档API功能详解
- 全栈开发实现的chatgpt应用可打包小程序/H5/App
- C++实现顺序表的动态内存分配技术
- Java制作水果格斗游戏:策略与随机性的结合
- 基于若依框架的后台管理系统开发实例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功