没有合适的资源?快使用搜索试试~ 我知道了~
9046个性化服装设计丛宇,杨虎*,颜琛,曾兵电子科技大学信息与通信工程学院†congyu@std.uestc.edu.cn, §{yanghu,eecyan,eezeng}@uestc.edu.cn摘要时尚推荐是指推荐一种与给定的服装相匹配的时尚服装的任务在这项工作中,我们提出了自动合成新的项目建议。我们共同考虑这项任务的两个关键问题,即, 兼容性和个性化。 我们提出了一个个性化的服装设计框架的帮助下生成对抗训练。首先使用卷积网络将查询图像映射为潜在向量表示。这个潜在的表示,与另一个向量,其特征在于用户建立了两个网络来指导生成过程。一个是经典的真/假辨别器。另一个是匹配网络,它同时对时尚物品之间的兼容性进行建模,并学习用户的偏好表示。所提出的方法的性能进行评估上千的服装合成的在线用户。实验结果表明,该模型生成的物品具有较好的真实感。与其他方法相比,它们具有更好的视觉质量和更高的匹配度1. 介绍随着时尚产业向在线业务的快速发展,与时尚相关的计算机视觉问题如今已经引起了越来越多的关注。一个特别感兴趣的任务是时装展示[4,7,9,10,16,21,35 -37],它建议与给定物品非常匹配的服装物品。服装推荐的关键是对服装款式之间的兼容性进行建模.已经探索了各种方法,例如距离度量学习[7,25,36],暹罗网络[37]和递归尽管他们在预测兼容性方面取得了一定的成绩,但仍存在一些问题* 通 讯 作 者 是 杨 虎 。 本 工 作 得 到 了 国 家 自 然 科 学 基 金(61602090)和111项目(B17008)的资助。上到下下而上图1.我们的模型设计的例子。在上面的情况下,我们设计底部(红框中的项目)与给定的顶部相匹配,在下面的情况下,我们设计顶部(红框中的项目)与给定的底部相匹配所有这些设计都是针对用户的。在现实世界中的应用请注意,这些方法仅测量现有项之间的兼容性。当给定的库存很小或有限时,可能没有足够好的项目来补充查询。另一方面,当库存很大时,生成推荐可能面临一些效率问题,因为需要计算每个项目的兼容性,由于大多数方法使用深度神经网络,这是计算昂贵的。在这项工作中,而不是建议现有的项目,我们合成的新项目,兼容给定的图像。这就解决了小企业的亏损问题。对于大型库存,当需要定位真实物品时,我们可以只搜索与合成物品相似的物品。这比穷举兼容性评估更有效,因为相似性搜索可以非常快9047使用像散列这样的技术。为服装组合生成新项目的能力也促进了时装设计和制造。它可以帮助生产者更快地创建和修改他们的设计。在合成补语项时,除了一般的相容性外,还考虑了个体的问题.个性化是时装业的一个重要趋势对于同一个查询项目,不同的人可能会选择不同的项目来补充它。虽然个性化推荐在电影和音乐推荐等领域已经很流行,但大多数时尚推荐仍然不是用户特定的。在探索个性化的少数作品中,Hu [10]表明他们的个性化模型比非个性化方法更能挑选出适合用户口味的服装Kang [13]提出了一个模型来为用户生成某个类别的新项目图像。虽然他们的推荐是个性化的,但由于在他们的设置中没有提供查询项,因此他们没有考虑项之间的兼容性。我们的方法根据用户的风格偏好来合成与给定项目一起使用的新时尚项目。在本文中,我们使用生成对抗训练框架来构建个性化的服装生成对抗网络(GAN)[3]在为不同应用合成逼真图像方面取得了在这里,我们将其应用于个性化服装设计。我们首先使用编码器网络将查询图像映射到潜在向量表示。这个潜在的表示,与另一个向量,其特征在于用户建立了两个可重构网络来指导生成过程。 一个是经典的分类器,它学习分类真实和虚假的图像。另一个是一个匹配网络模型之间的兼容性时尚项目。该网络还学习用户我们评估我们的方法的性能上千的在线用户创建的服装。我们表明,建模用户我们的模型生成的图像是真实的,充满了细节。与基线方法相比,它们具有更好的视觉质量和更高的2. 相关工作许多研究已经进行了时尚相关的视觉问题。示例性研究包括服装解析[17,40],服装识别[19,38],时尚再设计[19,39],服装设计[19,39]。trieval [18,42],时尚趋势预测[1,6],等等。兼容性和建议先前的作品探索了各种方式来模拟时尚物品之间的兼容性[4,9,32,36,37]。Veit等人[37]使用了Siamese CNN架构,以了解共同购买的项目之间的兼容性。Han et al. [4]训练了一个双向LSTM模型,以顺序预测下一个以前一个为条件的项目。Vasileva等人[36]提出学习类型感知嵌入以进行兼容性预测。所有这些先前的作品都集中在对现有时尚物品之间的兼容性进行建模。另一方面,我们的方法合成了与给定物品互补的服装照片。我们使用兼容性来指导生成过程。与我们最相似的工作是[32],它引入了投影兼容性距离来衡量兼容性,并引入了度量正则化条件GAN来可视化学习到的兼容原型。然而,他们没有考虑个性化问题作为我们的模型。时装合成由于现实生活中的应用需求很高,时装合成最近越来越受欢迎。给定一个人的图像和一段纹理描述,Zhu et al.[43] A两阶段GAN方法,用于在人身上生成新衣服。Han等人[5]提出了一种基于图像的虚拟试穿网络,用于将服装物品转移到个人身上。Yoo [41]从穿着衣服的人的图像中生成衣服的产品照片。在[29]中,出现了一个交换网络,可以在两个人的图像之间交换服装。还有许多人对合成任意姿势的人的图像感兴趣,同时保持他们的衣服不变[22,28,33]。在大多数这些合成中,时尚项目保持不变。翻译后,只是改变了它们的外观在我们的例子中,即使在类别上,输出也不同于输入。它们通过潜在的协调关系联系在一起。条件GANsGANs在条件设置中得到了大力研究,它学习数据的条件生成模型。以前的作品已经将GAN限制在离散标签[26],文本[30]以及IM上。年龄[2,15,20,24]。Isola等人[11]为不同的图像到图像的翻译问题提出了一个通用的解决方案。对于各种映射,如标签到街景,边缘到照片等,都得到了令人满意的结果。Kim et al. [14]设计了一个模型来学习两个不成对图像域之间的双向映射请注意,在这些作品的翻译过程中,图像的语义结构大多保持不变。我们的工作的不同之处在于,所生成的图像的语义布局与其相应的输入不同3. 我们的方法个性化服装设计的任务是在给定输入查询项的情况下,为特定用户生成一个时尚项目。设计有两个一般要求:(1)真实性要求,即设计的项目要看起来逼真;(2)兼容性要求,即的9048zqXQ将军POS.θu发生器真/假真假鉴别器数据集用户偏好矩阵评分ⓈⓈθuzqzc兼容性鉴别器Neg.R图2.个性化服装设计的网络架构。它包含一个发生器和两个鉴别器。生成器使用编码器-解码器架构。其中一个鉴别器用于真/假监管。另一个是兼容性预测。设计项应与查询项兼容。如图2所示,我们使用编码器-解码器架构来合成互补项。编码器F渐进地对查询图像进行下采样,直到它被压缩成低维潜在空间表示Zq。向量zq捕获语义属性,例如,查询项的类别、颜色、样式,作为设计目标项的依据。本文中使用的编码器F类似于VGG16网络[34],除了最后三个完全连接的层,分别具有1024、512和64个通道。为了实现个性化设计,一种方法是将用户的然而,离散标签不足以描述用户因此,我们使用从历史数据中学习的向量θu来表示用户u。将潜在向量zq和用户向量θu串联起来为了确保解码器G输出的设计项满足真实性和兼容性要求,我们使用具有两个鉴别器的生成对抗训练框架来训练解码器G,每个鉴别器服务于一个要求。我们将在下面两个小节中详细讨论它们3.1. 真假鉴别器利用真/伪伪图像来训练解码器G,使得所设计的物品图像看起来逼真。为了克服传统GAN的问题,[12]提出使用在这项工作之后,结合LSGAN的思想[23],我们使用以下损失来进行真/假的训练:RaLSGAN1分2秒然后被馈送到解码器G以生成LD=2ExrP(D(xr)−Exf<$QD(xf)−1)补充项目。 解码器G的架构为:如图3所示它由几个反卷积层组成,类似于[13]中的生成器。+1E2xfD(x))−ExrPD(x)+1)2π,(一)用户1…用户n…………编码器FM解码器G编码器F鉴别器DF9049Q−CCFQ为了考虑个性化,对于每个用户u,我们使用向量θu来表征他/她的时尚偏好。θu是网络参数的一部分,在训练过程中学习。θu与zo也是通过逐元素乘积组合的,这比向量con更好,在我们最初的实验中。结果被馈送到由全连接层组成的度量网络M中,以获得最终的兼容性得分,即,su,o= M(θu<$zo).(五)为了训练兼容性,我们将数据集分为正集合O+和负集合O−O+={o+|o+→(x+,x+|u)},(6)Q CO−={o−|o−→(x+,x−|u)orr(x−,x−|u)},(7)Q C Q C解码器G鉴别器D其中o+是用户u在线制作的服装。我们把它作为u的正向装备;o−是负向装备,它是这样形成的。通过来自com的查询项x+和随机项x-,Q C补充类别,或者它是由创建的装备{x-,x-}图3.解码器G的网络结构和真/假鉴别器D. 我们使用LeakyReLU激活,斜率为0.2 inQ除了你以外的用户。负的装备{x+C,xc|u}reflects+查询x之间的一般和这两个网络的所有隐藏层,并使用Tanh在解码器G表示输出层。随机项x−,而负装备{x-Q,x−|u}de-选择服装{x-,x-}和Q C用户u该系统通过保存数据来区分真实数据和虚假数据,他们之间的差距。发生器经过训练,通过最小化以下损失来消除此间隙:所设计的项目图像还可以与输入查询图像一起组成新的数据集O*O={o|o→(x+,x|u)},(8)Q CLRaLSGAN=1ED(x))−ED(x))2其中o是我们系统的输出装备,其中包含G2xffxrPr查询x+和设计项x。1美元q、c+Exr2(D(xr)−Ex <$QD(xf))2.(二)兼容性测试仪应该能够显示-区分积极的服装和消极的服装,即,为正面服装分配更高的兼容性分数:s u,o+> s u,o−。(九)3.2. 兼容性鉴别器利用兼容性训练器来模拟用户本报告由两部分组成第一个是暹罗人网络[37],采取一对时尚的图像,即,查询图像Xq和补充项图像Xc作为输入。每个图像通过编码器F,编码器F将其转换为潜在表示:zi= F(xi),i ∈ {q,c}.(三)请注意,此编码器与生成器中的编码器共享参数。在第二部分中,我们将两个潜在表征联系起来,以获得反映两个项目兼容程度的分数。我们首先取以下元素的乘积:θu,64zqz q64fc,15x5解卷积,64,步幅=2,BNfc,10245x5解卷积,128,步幅=2,BN5x5conv,512,步幅=2,BN5x5解卷积,256,步幅=1,BN5x5conv,256,步幅=2,BN5x5解卷积,256,步幅=2,BN5x5conv,128,步幅=2,BN5x5解卷积,256,步幅=1,BN5x5conv,64,步幅=25x5解卷积,256,步幅=2,BN,128x128x3fc,8x8x256,BN5x5解卷积,3,步幅=1修正最小二乘损失90502为了实现这一点,编码器F和度量网络M应设法减少损失LFM=−Eo+<$O+,[lnσ(su,o+−su,o−)]+λθFM<$θFM<$,o−O−(十)其中σ(·)是S形函数,θFM包括编码器F和度量网络M中的参数,并且λ θF M是正则化参数。θu也是在这个过程中学习到的为了确保设计的项目与查询项目以及他们制作的服装很好地匹配,以满足用户这是通过优化解码器G的参数来实现的,使得以下损失最小化FM12zq和zc得到服装的潜在空间表示:LG= Eo+<$O+[(su,o+−Eo <$$>O<$(su,o<$))]212(十一)z o= z q<$z c.(四)+2 EoO [(s u,o− Eo+O+(s u,o+))]。9051G DG3.3. 对抗训练算法1个性化服装设计我们方法的总体目标是尽量减少跟随损失函数Set:网络的迭代次数nD−6=2,批量m=64,λθFM=10。L=LFM+λ1LFM+λ2LRaLSGAN+λ3LRaLSGAN,初始化:初始化网络参数,即θFMforF和M,G的θG,D的θD,以及用户偏好向量(十二)其中L F M与编码器F相关,度量网络M和用户偏好向量θu。 LRaLSGAN仅θu。一曰: 而θG不收敛,DFM2:采样一批o+={x+,x+|从位置上看,与真/假的BAD有关。LG和LRaLSGAN与解码器G有关。λ1,λ2,λ3是Q C意向集G3:抽样一批o={x+,x|从德-模型权衡参数。所有这些损失都是复杂的-相互依赖,最终使我们的算法能够Q C符号集4:采样一批o−={x+,x−|u}或o−=获得令人愉快的结果。给定一批来自训练集的真实图像,我们Q C{x−,x−|u}从n eg at iv e集合Q C首先通过减少Eq.(十)、然后训练真实/假的训练以减少Eq的损失(一). 在此基础上,我们在保持判别器参数不变的情况下,对5:更新θFM,6:θFM←θFM−ηθFMLFM7: 对于t = 1,. . . ,n Ddo8:更新θD,解码器G通过减少方程中的损失。(2)和等式(十一)、整个训练过程总结在算法1中。9:θD←θD−λ2η<$θD10:结束11:更新θG,RaLSGAND12:θG←θG−ηθ (λ1LFM+λ3LRaLSGAN)4. 实验在本节中,我们进行实验来评估所提出的方法。我们将其与几个国家进行比较-13:结束whileGG G现有技术的方法定量地并且还通过它们的视觉质量性能。我们使用Ten- sorFlow实现了我们的方法,所有实验都在一个带有单个GTX-1080图形卡的商品工作站上运行我们的数据集是从社区驱动的时尚网站Polyvore抓取的。我们总共收集了797名在线用户制作的208,814套服装。对于每个用户,分别使用221和41套服装进行培训和测试每一套服装包括两个项目,即,顶部和底部。我们测试两个任务:给定一个上衣,设计一个与之相配的下装;给它一个底,设计一个顶。我们的数据集的一些统计数据在表1中给出。用户顶部底部服装培训797102,21776,245176,137测试79726,89923,64232,677表1.我们的数据集统计。我们使用Adam优化器,学习率为0.0002。模型折衷参数被设置为λ1=λ2=λ 3= λ4 = λ 5= λ 6 = λ 7 = λ 8 = λ 9= 10 = λ 9 = λ1.一、我们将批处理大小设置为64,训练模型为25epoch,每步2750次迭代。4.1. 基线为了验证该方法的有效性,我们将其与以下方法进行了比较。前两个是一般性的框架的图像到图像的翻译问题和最后两个是专为时尚问题。Pix 2 pix[11]生成器使用了一个U-Net架构,并学习了一个 单 元 组 来 分 类 真 元 组 和 假 元 组 ( {query ,complementary item})。DiscoGAN[14]它是一种发现两个域之间关系的最先进的方法。它由两个用于双向跨域生成的生成器和两个分别对应于一个域的判别器组成。像素级转移[41]它使用两个鉴别器来引导域转移。源图像和目标图像在输入到域数据库时沿着通道连接。MrCGAN[32]它首先使用预先学习的投影函数获得兼容的原型,然后使用原型生成兼容项目的图像。4.2. 消融研究与以往的方法相比,本文模型的主要区别在于:(1)从历史数据中学习用户的风格偏好,并将其融入图像生成过程;(2)设计了一个兼容性查询器,保证生成的项目与查询匹配。因此,我们进行了以下消融研究,以评估我们模型的这些重要组件的效果。离散用户标签正如许多普通的条件GAN一样,L9052GGG方法IS↑SSIM对面↑FID↓基线[11]第十一话DiscoGAN [14]像素级传输[41]MrCGAN [32]4.6372±.053.0793±.044.3430±.053.8569±.033.9078±.060.5500±.150.4077±.120.5717±.140.5735±.160.5576±.130.000043.521551.809957.046126.3591消融研究Ours(离散用户标签)Ours(移除θu)Ours(removeLFM)G我们的(满)3.9137±.044.2375±.054.3157±.064.2626±.050.5207±.140.5447±.140.5499±.070.5644±.1345.445331.360422.342918.1023表2.通过不同方法对生成的图像进行定量评价±之后的值为标准差。4.3. 定量评价图4.用户调查结果。绿色条表示通过我们的完整模型获得的投票,橙色条表示其他方法的投票。面板(a,b,c,d)对应于Pix2pix [11]、DiscoGAN [14]、像素级转移[41]和MrCGAN [32]记录。 面板(e,f,g)是我们模型的不同版本,即离散用户标签,删除θu和删除LFM。代替学习和使用θu,我们使用离散标签来表示条件生成的用户。用户不知情的设计我们只对一般的兼容性进行建模,但不知道不同用户的偏好在这种情况下,我们忽略了网络中的θu解码器G的输入仅是潜在向量zq和兼容性得分so=M(zq <$zc)。移除LFM兼容性测试保证生成器设计的项与查询很好地匹配。为了分析这个组件的重要性,我们在训练解码器G的同时去除LFM。注意,用户偏好向量θu被保持并且仍然作为条件被馈送到解码器中。从真实性、多样性和兼容性的角度对设计的物品形象进行评价。为了测量真实性,使用基于标准预训练初始网络的初始得分[31]。分数越高,质量越好对于多样性,类似于[27],我们计算生成的图像对的视觉相似性,这是通过结构相似性(SSIM)[39]来测量的在[13]之后,我们报告了相反的平均SSIM,即1减去平均SSIM,以显示多样性。更高的值意味着更好的多样性。此外,我们还计算了生成图像集和地面实况图像集之间的Fréchet初始距离(FID)[8]。值越小,两个图像分布越接近为了兼容性,我们进行用户调查,看看我们的模型是否可以产生被认为是兼容的查询项的图像20名受试者参与了这项研究。每个人都被分配了300个随机选择的查询(150个顶部和150个底部)。我们在我们的方法和基线之间进行成对对于每个查询图像,给出两个互补的项目图像,一个由我们的完整模型生成要求用户选择与查询更兼容的项目。计算每种方法获得的总票数。我们还提供了完整模型与消融研究模型之间的成对比较。评价结果见表2和图4。我们可以看到,该方法在IS和Opposite SSIM中的性能优于大多数其他方法。至于FID,我们的方法优于其他方法有很大的利润。虽然DiscoGAN在IS和Op- posite SSIM中表现稍好。它的FID值比我们的差多了。在用户研究中,它也不如我们的方法好。根据消融研究,我们的完整模型表现出许多9053G查询Pix2pixDiscoGAN像素级转移MrCGAN离散用户标号移除θu移除LFM我们的(满)积极(a)从上到下(b)从下到上图5.不同方法的定性比较。自上而下任务的结果显示在左侧,自下而上任务的结果显示在右侧。对于每个任务,第一行是查询图像。从第2行到第5行分别是pix2pix [11],DiscoGAN [14],像素级传输[41]和MrCGAN [32]的结果。从第6行到第8行是我们的零件模型的结果最后两行是由我们的完整模型生成的项目和在线用户选择的地面实况项目。比其他方法更好。对用户的认知进行合理的建模,并将其用于指导项目设计,有助于生成器更好地估计数据分布,从而大大改善结果。使用离散标签作为用户条件不足以捕捉用户通过使用兼容性查询,提高了生成项与查询之间的匹配度。因此,个性化建模和兼容模块对于提高性能都是重要的4.4. 定性评价我们还评估设计项目的视觉质量在图5中,我们展示了两个设计任务的一些结果:(a)从上到下和(b)从下到上。我们可以看到,与基线方法和我们的简化模型相比,我们的完整模型设计的项目看起来更真实。他们是良好的形状和充分的纹理细节。它们比其他方法具有更少的视觉伪影,并且与相应的地面真值项也更相似。 结果表明,我们的方法是能够9054图6.生成的图像及其在真实图像数据集中的最近邻。图7.针对不同用户的相同查询而设计的项目创造出真实的和兼容的物品。在图6中,我们展示了真实图像数据集中一些设计项的5个最近邻居从图中我们发现,设计的物品与实物非常相似,即,几乎和真的一样对于需要真实物品的在线购物等应用程序,我们可以使用这种设计和检索方法来有效地识别目标。我们的框架可以模拟用户因此,对于同一个查询,针对不同用户的设计是不同的。这在图7中得到了验证。它表明,为不同的用户生成了非常不同的项目。这在实践中是非常理想的。4.5. 新用户的学习偏好当新用户在模型训练完成后加入时,重新训练整个模型将是负担不起的。使用我们的框架,我们可以保持网络的所有其他参数固定,只学习新来者的θu注意θu只是一个64维的向量,可以计算出来。所有其他参数都是固定的。我们已经在此设置下测试了性能。我们首先使用来自700个用户的服装来训练整个网络。对于剩下的97个用户,我们在不更新其他网络参数的情况下学习他们的θu我们比较了图像-在此设置下,对这97名用户进行了认证,而我们之前的设置是所有797名用户一起接受培训定量比较见(表3)。一般来说,我们发现在这两种设置下生成的图像的质量是相似的。IS↑SSIM对面 ↑FID↓原始设置4.2899±.180.5922±.1019.4098新设置4.1198±.130.5672±.1121.6177表3.评价为97名新用户生成的图像5. 结论在本文中,我们提出了一个个性化的服装设计框架的生成对抗训练的帮助下。我们的框架可以自动建模用户它由一个编码器,查询图像映射到一个潜在的矢量表示,一个解码器,产生的目标项目的图像,和两个判别器,指导生成过程。通过对数千件在线用户定制的服装进行实验,结果表明,该方法在捕捉用户的个人品味、建模服装之间的兼容性以及设计服装的视觉质量等方面均9055引用[1] Ziad Al-Halah , Rainer Stiefelhagen , and KristenGrauman.时尚前卫:预测时尚的视觉风格。InICCV,2017.[2] 杨晨,赖玉坤,刘永进。CartoonGAN:用于照片卡通化的生成对抗网络在CVPR,2018年。[3] Ian J. Goodfellow、Jean Pouget-Abadie、Mehdi Mirza、Bing Xu 、 David Warde-Farley 、 Sherjil Ozair 、 AaronCourville和Yoshua Bengio。生成性对抗网。在NIPS,2014。[4] Han Xintong,Zuxuan Wu,Yu-Gang Jiang,and Larry S.戴 维 斯 学 习 双 向 LSTM 的 时 尚 兼 容 性 。 ACMMultimedia,2017年。[5] Han Xintong,Zuxuan Wu,Zhe Wu,Ruichi Yu,andLarry S.戴维斯VITON:基于图像的虚拟试穿网络。在CVPR,2018年。[6] 毁了他和朱利安·麦考利上下起伏:通过一类协同过滤对时尚趋势的视觉演变进行建模。在WWW,2016。[7] 毁了他,查尔斯·帕克和朱利安·麦考利。不同类别的学习兼容性,用于异质项目推荐。InICDM,2016.[8] Martin Heusel,Hubert Ramsauer,Thomas Unterthiner,Bernhard Nessler,Günter Künauer,and Sepp Hochreiter.通过两个时间尺度更新规则训练的GAN收敛到纳什均衡。在NIPS,2017年。[9] Wei-Lin Hsiao和Kristen Grauman。用时尚图片制作胶囊衣柜。在CVPR,2018年。[10] Yang Hu,Xi Yi,and Larry S.戴维斯协同式时装推荐:一种函数张量分解方法。ACM Multimedia,2015年。[11] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and Alexei A.埃夫罗斯使用条件对抗网络的图像到图像翻译。在CVPR,2017年。[12] 阿莱克西亚·乔利库-马蒂诺。相对论鉴别器:标准GAN中 缺 少 的 关 键 元 素 。 在 arXiv 预 印 本 arXiv :1807.00734,2018。[13] Wang-Cheng Kang,Chen Fang,Zhaowen Wang,andJulian McAuley.视觉感知的时尚推荐和设计与生成图像模型。InICDM,2017.[14] Taeksoo Kim、Moonsu Cha、Hyunsoo Kim、Jung KwonLee和Jiwon Kim。学习发现跨域关系与生成对抗网络。ICML,2017。[15] Christian Ledig 、 Lucas Theis 、 Ferenc Huszar 、 JoseCaballero 、 Andrew Cunningham 、 Alejandro Acosta 、Andrew Aitken、Alykhan Tejani、Johannes Totz、ZehanWang和Wenzhe Shi。使用生成对抗网络的照片逼真的单图像超分辨率。在CVPR,2017年。[16] Yuncheng Li , LiangLiang Cao , Jiang Zhu ,and JieboLuo.使用端到端深度学习方法在集合数据上挖掘时尚服装组成。IEEE Trans. Multimedia,2017.[17] Xiaodan Liang,Chunyan Xu,Xiaohui Shen,JianchaoYang,Jinhui Tang,Liang Lin,and Shuicheng Yan.使用上下文卷积神经网络进行人类解析。IEEE传输模式分析马赫内特尔,2017年。[18] 刘思、宋征、刘光灿、徐长生、卢汉卿、严水成.街道到商店:通过部件对齐和辅助设置进行跨场景服装检索。CVPR,2012。[19] Ziwei Liu,Ping Luo,Shi Qiu,Xiaogang Wang,andXiaoou Tang. Deepfashion:通过丰富的注释实现强大的服装识别在CVPR,2016年。[20] 波琳·吕克、卡米尔·库普利、苏史密斯·钦塔拉和雅各布·维贝克。使用对抗网络进行语义分割在arXiv预印本arXiv:1611.08408,2016。[21] 何塞·奥拉马斯和Tinne Tuytelaars通过层次化的中层元素对视觉在arXiv预印本arXiv:1604.00036,2016。[22] 马丽倩、徐佳、孙倩茹、Bernt Schiele、Tinne Tuyte-laars和Luc Van Gool。姿势引导的人物图像生成。在NIPS,2017年。[23] 毛旭东,李庆,谢浩然,Raymond Y. K.及王震。具有L2损失函数的多类生成对抗InICCV,2017.[24] Michael Mathieu,Camille Couprie,and Yann LeCun.超越均方误差的深度多尺度视频预测。ICLR,2016年。[25] Julian McAuley , Christopher Targett , Javen Shi, andAnton van den Hengel.基于图像的样式和替代品推荐。InSIGIR,2015.[26] Mehdi Mirza和Simon Osindero条件生成对抗网。在arXiv预印本arXiv:1411.1784,2014。[27] Augustus Odena,Christopher Olah,and Jonathon Shlens.使用辅助分类器GAN的条件图像合成。ICML,2017。[28] Albert Pumarola 、 Antonio Agudo 、 Alberto Sanfeliu 和Francesc Moreno-Noguer。任意姿态的无监督人物图像合成。在CVPR,2018年。[29] Amit Raj , Patsorn Sangkloy , Huiwen Chang , JamesHays,Duygu Ceylan,and Jingwan Lu.SwapNet:基于图像的图像传输。在ECCV,2018。[30] Scott Reed , Zeynep Akata , Xinchen Yan , LajanugenLo- geswaran,Bernt Schiele,and Honglak Lee.生成对抗性文本到图像合成。InICML,2016.[31] 作者:Tim Salimans Goodfellow,Wojciech Zaremba,Vicki Cheung,Alec Radford,and Xi Chen.改进了训练GAN的技术。在NIPS,2016年。[32] 施永祥、张凯越、林轩天、孙敏。用于项目推荐和生成的兼容性族学习在AAAI,2018。[33] AliaksandrSiarohin 、 EnverSangineto 、 StephaneLathuiliere和Nicu Sebe。用于基于姿势的人类图像生成的可变形GANs。在CVPR,2018年。[34] Karen Simonyan和Andrew Zisserman用于大规模图像识别的非常深的卷积网络2015年,国际会议。[35] Xuemeng Song,Fuli Feng,Jinhuan Liu ,Zekun Li,Ligen Nie,and Jun Ma.神经造型师:服装的神经相容性模型。ACM Multimedia,2017年。[36] 玛 丽 亚岛 作 者 声明 :A. Plummer , Krishna Dusad ,Shreya Rajpal,Ranjitha Kumar,and David Forsyth.学习类型感知嵌入以实现时尚兼容性。在ECCV,2018。9056[37] Andreas Veit 、 Balazs Kovacs 、 Sean Bell 、 JulianMcAuley、Kavita Bala和Serge Belongie。学习视觉服装风格与异质并元同现。在ICCV,2015年。[38] Wenguan Wang,Yuanlu Xu,Jianbing Shen,and Song-Chun Zhu.用于服装地标检测和服装类别分类的注意时尚文法网络。在CVPR,2018年。[39] 放大图片作者:Alan C.哈米德?博维克Sheikh和Eero P.西蒙切利图像质量评估:从错误可见性到结构相似性。IEEE传输图像处理。,2004年。[40] Kota Yamaguchi, M.Hadi Kiapour 和Tamara L.伯格。Pap-per doll解析:检索相似的样式以分析服装项目。InICCV,2013.[41] 刘东根,金南一,朴成均,安东尼S。白和仁素坤。像素级域转移。在ECCV,2016年。[42] 赵波,贾世峰,小舞,燕水城。用于交互式时尚搜索的记忆增强属性操纵网络。在CVPR,2017年。[43] Shizhan Zhu , Sanja Fidler , Raquel Urtasun , DahuaLin,and Chen Change Loy.做你自己的Prada:具有结构连贯性的时尚综合。InICCV,2017.
下载后可阅读完整内容,剩余1页未读,立即下载
![doc](https://img-home.csdnimg.cn/images/20210720083327.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_column_c1.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- VMP技术解析:Handle块优化与壳模板初始化
- C++ Primer 第四版更新:现代编程风格与标准库
- 计算机系统基础实验:缓冲区溢出攻击(Lab3)
- 中国结算网上业务平台:证券登记操作详解与常见问题
- FPGA驱动的五子棋博弈系统:加速与创新娱乐体验
- 多旋翼飞行器定点位置控制器设计实验
- 基于流量预测与潮汐效应的动态载频优化策略
- SQL练习:查询分析与高级操作
- 海底数据中心散热优化:从MATLAB到动态模拟
- 移动应用作业:MyDiaryBook - Google Material Design 日记APP
- Linux提权技术详解:从内核漏洞到Sudo配置错误
- 93分钟快速入门 LaTeX:从入门到实践
- 5G测试新挑战与罗德与施瓦茨解决方案
- EAS系统性能优化与故障诊断指南
- Java并发编程:JUC核心概念解析与应用
- 数据结构实验报告:基于不同存储结构的线性表和树实现
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)