没有合适的资源?快使用搜索试试~ 我知道了~
HairNet:使用卷积神经网络的Yi Zhou1,Liwen Hu1,Jun Xing2,Weikai Chen2,Han-Wei Kung3,XinTong4,Hao Li1, 2, 31南加州zhou859@usc.eduhuliwenkidkid@gmail.comUSC Institute for Creative Technologies南加州大学创意技术学院{junxnui,chenwk891}@ gmail.com3Pinscreen,圣莫尼卡美国hanweikung@gmail.comhao@hao-li.com4微软亚洲研究院,北京,中国xtong@microsoft.com抽象。我们介绍了一种基于深度学习的方法,可以从无约束图像中生成完整的3D头发几何形状我们的方法可以恢复本地链的细节,并具有实时性。最先进的头发建模技术依赖于用于最近邻检索的大的发型集合相比之下,我们的深度学习方法在存储方面非常高效,在生成30K股头发的同时,运行速度可以提高1000倍。卷积神经网络将头发图像的2D取向场作为输入,并且生成均匀分布在参数化的2D头皮上的发束特征。我们引入了碰撞损失来合成更合理的发型,并且每条头发的可见性也被用作权重项来提高重建精度。我们的网络的编码器-解码器我们使用大量渲染的合成头发模型来训练我们的网络。我们的方法可扩展到真实图像,因为从真实图像自动计算的中间2D方向场,排除了合成头发和真实头发之间的差异。我们demonstrate的有效性和鲁棒性,我们的方法在广泛的具有挑战性的真实互联网图片,并显示重建的头发序列从视频。关键词:毛发,重建,实时,DNN1介绍真实的头发建模是数字化虚拟人时最困难的任务之一[3,20,25,27,14]。与容易参数化的对象相反2Y. Zhou等人图1.一、使用HairNet从单视图图像重建头发与人的面部相似,头发跨越宽范围的形状变化,并且由于其体积结构和每束中的可变形性水平而可能高度复杂虽然[28,22,2,26,38]可以创建高质量的3D头发模型,但它们需要专门的硬件设置,难以部署和填充。Chai等人[5,6]介绍了第一个简单的毛发建模技术,但该过程需要手动输入,并且无法正确生成毛发的不可见部分Hu等人[18]后来通过引入数据驱动的方法解决了这个问题,但仍然需要一些用户笔划最近,Chai et al.[4]采用卷积神经网络来分割输入图像中的头发,以完全自动化建模过程,[41]提出了一种四视图方法,以实现更灵活的控制。然而,这些数据驱动的技术依赖于存储和查询巨大的毛发模型数据集并执行计算量大的细化步骤。因此,它们对于需要实时性能或具有有限的硬盘和存储器空间的应用程序是不可行的。更重要的是,这些方法通过将检索到的毛发模型拟合到输入图像来重建目标发型,这可以很好地捕获主要毛发形状,但不能处理细节,也不能实现高精度。此外,由于毛发模型的查询和细化两者都基于无向2D取向匹配,其中水平取向张量可以指向右侧或左侧,因此该方法有时可能产生具有不正确的生长方向或分型线以及z轴上的怪异变形的毛发。加快程序并重建保留更好样式的头发w.r.t输入图像并且看起来更自然,我们提出了一种基于深度学习的方法来从单视图图像生成完整的头发几何形状,如图1所示。与最近通过神经网络以体积网格[8]或点云[10]的形式合成形状的进展不同,我们的方法直接生成头发束,这更适合于头发等非流形结构,并且可以实现更高的细节和精度。我们的神经网络,我们称之为HairNet,由一个卷积编码器和一个去卷积解码器组成,卷积编码器从头发图像的2D方向场提取高级头发特征向量,去卷积解码器生成32×32股头发。发网3均匀分布在参数化2D头皮上的特征。发束特征可以被内插在头皮空间上以获得更高(30K)的分辨率,并进一步解码为最终的发束,表示为3D点的序列。特别是,头发特征向量可以被视为头发模型的紧凑和连续的表示,这使得我们能够在潜在空间中有效地采样或插值除了重建损失之外,我们还引入了头发束和身体模型之间的碰撞损失,以将生成的发型推向更合理的空间。为了进一步提高准确性,我们使用基于输入图像的每条链的可见性作为权重来调节其损失。获得具有真实头发图像和地面真实3D头发几何形状的训练集是具有挑战性的。我们可以通过使用中间的2D方向场作为网络输入来找出合成头发数据和真实头发数据之间的差异。这使得我们的网络能够使用大量可访问的合成头发模型和真实图像进行训练,而无需任何更改。例如,可以通过在使用[42]的方法自动分割的头发区域具体来说,我们合成了一个头发数据集,由40K不同的发型和160K相应的2D方向图像从随机视图渲染训练。以前的数据驱动方法可能需要几分钟和TB的磁盘存储进行一次重建,相比之下,我们的方法只需要不到1秒和70 MB的磁盘存储。我们证明了我们的方法的有效性和鲁棒性的合成头发图像和真实图像从互联网,并显示在头发插值和视频跟踪应用我们的贡献可归纳如下:1. 我们提出了第一个深度神经网络来从单视图图像生成密集的头发几何形状。据我们所知,这也是第一个将碰撞和可见性结合到深度神经网络中来处理3D几何形状的工作。2. 我们的方法实现了最先进的分辨率和质量,并显着优于现有的数据驱动的方法在速度和存储。3. 我们的网络提供了头发几何形状的第一个紧凑和连续的表示,从不同的发型可以顺利采样和插值。4. 我们构建了一个大规模的数据库,其中包含大约40K的3D头发模型和160K的相应渲染图像。2相关工作头发数字化。 现有头发建模技术的一般调查可以在Ward et.al [36]中找到。对于经验丰富的艺术家来说,选择使用XGen和Hairfarm等商业软件从头开始纯手动编辑,以获得最高的质量,灵活性和可控性,但引人注目的逼真发型的建模可能需要几个星期。避免繁琐的操作4Y. Zhou等人在单个毛发纤维上,在[7,23,11,40,37]中提出了一些有效的设计工具。同时,头发捕获方法已被引入到从现实世界中获取大多数毛发捕获方法通常依赖于高保真度采集系统、受控记录会话、手动辅助,诸如多视图立体相机[28、2、22、26、9、38、17]、单个RGB-D相机[19]或多视图立体相机[19]。热成像[16]。最近,Chai et.al [6,5]提出了单视图头发数字化方法Hu et.al [18]后来展示了第一个系统,该系统可以使用数据库驱动的重建技术在头发束水平上对整个[4]后来提出了一种后续自动方法,该方法使用深度神经网络进行毛发分割,并增加了更大的数据库进行形状检索。为了更灵活地控制发型的侧视图和后视图,Zhang提出了一种基于四视图图像的头发建模方法,以填补多视图和单视图头发捕获技术之间的空白et.al由于这些方法依赖于大型数据集进行匹配,因此速度是一个问题,并且最终结果高度依赖于数据库质量和多样性。使用深度学习的单视图重建通过深度神经网络生成3D数据最近引起了越来越多的关注。体积CNN [8,12,33,21]使用3D卷积神经网络来生成体素化形状,但受到3D卷积的体积分辨率和计算成本的高度约束。虽然诸如分层重建之类的技术[15]和八叉树[31,32,35]可以用来提高分辨率,生成像头发丝这样的细节仍然是非常具有挑战性的。另一方面,点云由于其非结构化表示而能够很好地缩放到高分辨率[29,30]提出了统一的框架来从点云中学习继PointNet的开创性工作之后,[13]提出了PCPNet来估计点集的局部法线和曲率,[10]提出了一个从单个图像生成点集的网络然而,点云仍然表现出粗糙的结构,并且不能捕获发束的拓扑结构。3方法整个管道包含三个步骤。首先采用预处理步骤,基于自动估计的毛发掩模来计算毛发区域的2D方向场。然后,HairNet将2D方向场作为输入,并生成表示为3D点序列的发丝。最后执行重建步骤以有效地生成平滑且致密的毛发模型。发网53.1预处理我们首先采用PSPNet [42]来生成输入肖像图像的准确且鲁棒的逐像素头发掩模,然后使用Gabor滤波器[26]计算头发区域的每个像素的无向2D方向。无向取向的使用消除了估计毛发生长方向的需要,否则需要额外的手动标记[18]或学习[4]。然而,由于缺乏相机视图信息及其相对于人体的比例和位置,单独的头发可能是模糊的。因此,我们还添加了分割掩模的人的头部和身体上的输入图像。特别地,通过将3D可变形头部模型拟合到面部[20]来获得人类头部,并且可以经由刚性变换来相应地定位身体所有这些过程都可以自动化并实时运行。最后输出一幅3× 256× 256的图像,前两个通道存储颜色编码的头发方向,第三个通道表示头发、身体和背景的分割。3.2数据生成类似于Hu et. al [18],我们首先从公共在线存储库[1]收集具有340个3D头发模型的原始头发数据集,将它们与相同的参考头部对齐,将网格转换为头发束并解决头发和身体之间的碰撞然后,我们通过镜像和成对混合填充原始头发集与AutoHair [4]不同,它只是使用体积边界来避免不自然的组合,我们根据表1所示的样式将头发分为12类,并将同一类中的每对发型混合以生成更自然的示例。特别是,我们将每根头发的头发束聚集成五根中心头发束,每对发型可以产生2个5− 2个额外的中心头发束组合。新的中心股用作混合详细头发的指导。我们没有使用所有的组合,而是随机选择每个头发对的组合,从而使我们的合成头发数据集的头发总数超过40K。XSS20Ss110Ms28Ls29XLs27XXLs4XSc0Sc19Mc65Lc27XLC23XXLc1表1. 头发类别和每个类别中的头发数S是指短,M是指中,L是指长,X是指非常,s是指直,c是指卷曲。如果某些头发的样式不明确,则会将其指定给多个类。为了得到每个头发模型对应的方向图像,我们在固定摄像机的视口内随机旋转和平移头发,并在不同的视图上渲染4个方向图像。旋转范围为-90◦至偏航轴为+90,俯仰和滚转轴为-15至+15我们还添加高斯噪声的方向,以模拟真实的条件。6Y. Zhou等人i=0时i=0时3.3头发预测网络头发表示。 我们将每条链表示为有序的3D点集ζ={si}M,以固定数量均匀采样(在我们的实验中M= 100从根到端的点。每个样本si包含位置pi和曲率ci的属性。虽然这些股在长度、卷曲度和形状上有很大的差异,但它们都是从固定的根部生长到灵活的末端。为了消除由根位置引起的变化,我们在锚定在其根处的局部坐标中表示每个链。头发模型可以被视为具有固定根的N股H=ζN的集合,并且可以被公式化为矩阵AN*M,其中每个条目Ai,j=(pi,j,ci,j)表示第i股上的第j特别地,我们采用[34]中的方法将头皮参数化为32× 32网格,并在这些网格中心(N= 1024)处对发根进行图二、网络架构。首先将输入的方向图像编码成高级毛发特征向量,然后将其解码成32× 32个单独的股特征。每个链特征通过两个多层感知器(MLP)网络被进一步解码为包含样本位置和曲率的最终链几何结构。网络架构。如图2所示,我们的网络首先将输入图像编码为潜在向量,然后从向量中解码目标发对于编码器,我们使用卷积层来提取图像的高级特征与使用全连接层作为最后一层的常见做法不同,我们使用2D max-pooling将部分特征(总数为8× 8)在空间上聚合成全局特征向量z。这大大减少了网络参数的数量解码器以两个步骤生成发束头发特征向量z首先被解码为多个串特征向量{zi}M通过去卷积层,并且每个zi可以被进一步解码成最终的股几何结构ζ经由相同的多层全连接网络。这种多尺度解码机制允许我们通过插值conv1conv2conv3deconv332conv4deconv2conv5解v1MLPMax-poolingFCMLP毛发特征3285122565125123002565121286410032512发网72i、ji、j股特征。根据我们的实验,这实现了一个更自然的外观比直接插值最终股几何形状。广泛观察到,生成神经网络经常丢失高频细节,因为低频分量经常在训练中占主导地位。因此,除了每条链的3D位置{pi}之外,我们的链解码器还预测所有样本的曲率{ci}利用曲率信息,我们可以重建高频股细节。损失函数。我们在网络上应用三个损失。前两个损失是每个样本的3D位置和曲率的L2第三个是输出的发束和人体之间的碰撞损失为了加速碰撞计算,我们用四个椭球体来近似物体的几何形状,如图3所示。给定单视图图像,头发的可见部分的形状比不可见部分的形状更可靠,例如,内毛和背毛。因此,我们根据样本的可见性为其分配自适应权重-可见样本将具有比不可见样本更高的权重。最终损失函数由下式给出:L= Lpos + λ1Lcurv + λ2Lcollision。(一)L_pos和L_curv分别是3D位置和曲率的损失,写为:Lpos=1NΣ−1MΣ−1NMwi,j||pi、j∗i、j||2i=0j =0L曲线=1NΣ−1MΣ−1NMwi,j(ci,j∗2i、j)(二)wi,ji=0时 .=j=010个。0si,j可见0的情况。1其他其中p*和C*是对应的地面真值位置和曲率t 〇pi,j和ci,j以及wi,j是你所期望的。图3.第三章。碰撞试验用椭球体-p- -8Y. Zhou等人BC碰撞损失Lcol被写为四个椭圆上的每个碰撞误差的总和L=1NM列 Σ3k=0Ck(3)每个碰撞误差计算为每个碰撞点到椭球表面的距离的总和,该距离由椭球内部的线束长度加权,表示为Ck=NΣ−1MΣ−1pi,j−pi,j− 1i=0j =1距离k=1−(pi,j,0−xk)22K(pi,j,1−yk)2-2K(pi,j,2−zk)2-2K(五)其中pi,j−pi,j−1是链上两个相邻样本之间的L1xk、yk、zk、ak、bk和dk是椭圆体的模型参数培训详情。 公式1的训练参数被固定为λ1 =λ 2。1.0 且λ2= 10−4。在训练过程中,我们调整所有头发的大小,以便头发在公制中测量。我们使用Relu进行非线性激活,Adam [24]进行优化,并使用32的批量大小和250个epochs后的10- 4除以2的学习率运行500个epochs的训练(a) 输入图像(b)输出方向,训练输入 (c)1K股,训练目标见图4。取向图像(b)可以从真实图像(a)自动生成,或者从具有9K股的合成头发模型自动生成。使用方向图和具有1K股的下采样毛发模型(c)来训练神经网络。3.4重建来自网络的输出束可能包含噪声,并且当目标头发卷曲时,有时会丢失高频细节。因此,我们进一步改善头发的光滑度和卷曲度。我们首先通过使用高斯滤波器来平滑头发束以去除噪声。然后,我们比较一发网9预测的曲率和输出线股的曲率如果差异高于阈值,则我们向链样本添加偏移。特别是,我们首先构建一个局部坐标系在每个样本与一个轴沿切线的链,然后应用偏移函数沿其他两个轴通过应用曲线生成函数中描述的工作周等。al [39].图五、在(b)发束特征和(c)最终发束几何结构的空间中的发束上采样(d)显示了(c)的放大。该网络仅生成1K发束,这不足以呈现高保真输出。为了获得更高的分辨率,传统方法从引导股构建3D方向场,并使用来自一组密集毛囊的方向场重新生长股。然而,这种方法是耗时的,并且不能用于重建精确的毛发模型。虽然直接内插发束是快速的,但它也可能产生不自然的外观。相反,我们双线性内插由我们的网络生成的中间链特征zi,并通过使用感知器网络将它们解码为链,这使我们能够创建具有任意分辨率的头发模型。图5表明,通过在股特征空间中插值,我们可以生成更合理的头发模型。相比之下,直接插入最后的链可能导致像碰撞这样的伪影。这很容易理解,因为链特征可以被视为链的非线性映射,并且可以落入更合理的空间。见图6。使用和不使用卷曲的重建。10Y. Zhou等人图6展示了在我们的网络中添加卷曲的有效性。在不使用卷曲度作为额外约束的情况下,网络仅学习主导的主要生长方向,而丢失高频细节。在本文中,我们证明了我们所有的结果在9K至30K股的分辨率4评价4.1定量结果和消融研究为了定量地估计我们的方法的准确性,我们准备了一个合成的测试集与100个随机的头发模型和4个图像呈现从随机视图为每个头发模型。我们分别使用点之间的均方距离和使用等式3的碰撞误差来 我们将我们的结果与化学品进行比较。的方法[ 4]。所述方法首先针对数据库中的所述近邻查询,且接着执行细化过程,所述细化过程基于输入图像使用2D边界约束及2D定向约束使毛发全局变形。为了确保比较的公平性和效率,我们在训练集中使用相同的数据库进行[4]基于头发可见部分的最近邻查询,并将分辨率设置为1000str和s。 我们与胡锦涛主席进行了广泛的交流。’但是为整个测试集绘制笔划太费力了,所以在我们的测试中,我们使用从地面真实模型中随机采样的三个合成笔划作为输入。在表2中,我们显示了与最近邻查询结果和两篇论文的方法的误差比较。我们还进行了消融测试,分别从我们的网络中消除的可行性自适应权重,碰撞损失和曲率损失从实验中,我们观察到,我们的方法优于所有的abla-tionmethods和dChalal。是我的。在具有可见性自适应权重的情况下,可见部分和不可见部分的重建误差大致相同,而对于应用可见性自适应权重的所有网络,曲率损失还有助于减小重建的均方距离误差。实验还表明,使用碰撞损失将导致更小的碰撞错误。最近邻方法结果的碰撞错误为0,因为数据库中的头发没有碰撞。在表3中,我们比较了我们的方法和数据驱动方法在9K链分辨率下的计算时间和硬盘使用情况。可以看出,我们的方法可以快大约三个数量级,并且只使用少量的存储空间。重建时间不同于直发样式和卷发样式,因为对于具有较小曲率差异的直发样式,我们跳过添加曲线的过程。发网11可见位置误差不可见位置错误碰撞错误发网0.0170.027二、26 ×10−7HairNet -暴力侵害妇女0.0240.0263 .第三章。5×10−7HairNet -侧栏0.0190.0273 .第三章。26×10−6NairNet -曲线0.0200.0293 .第三章。3×10−7NN0.0330.0410Chai等人[4]美国0.0210.0400Hu等人[18个国家]0.0230.0280表2.重建误差比较。误差是以公制度量的。位置误差是指地面实况与预定时间之间的均方距离误差。“- VA W”指的是限制病毒的生存能力和适应性。“-C ol”表示减少收集损失,“- C urv”表示减少存储损失。“NN”指的是存储在该区域的可访问部分上的数据库。我们预处理推理重建总时间总空间0.02 s0.01 s0.01- 0.05秒0.04- 0.08秒 70 MiBChai等人[4]美国预处理NN查询细化总时间总空间3 s10 s40 S53 s1 Tib表3.时间和空间的复杂性。4.2定性结果为了证明我们的方法的通用性,我们用不同的真实肖像照片作为输入进行了测试,如补充材料中所示。我们的方法可以处理不同的整体形状(例如短发型和长发型)。此外,我们的方法还可以重建发型内的不同水平的卷曲度(例如:直的、波浪形的和非常卷曲的),因为我们在网络中学习卷曲作为曲率,并使用它来合成我们的最终链。在图9和图8中,我们比较了单视图毛发重建与自动毛发[4]的结果。我们发现,这两种方法都可以在长度和形状方面对整体头发几何形状进行合理推断,但是来自我们的方法的头发可以保留更好的局部细节并且看起来更自然,特别是对于自然的头发。 这是最好的选择。’此外,他们使用螺旋拟合来推断头发的深度,但对于非常卷曲的头发可能失败,如图8的第二行所示。 更多,Chaietal. ’图7显示了我们的方法的插值结果。插值实验结果表明,该方法能够在卷发、直发、短发、长发之间进行平滑插值。 我们与我们的客户进行了广泛的合作。sm e t h o d [ 37]。在图7中,12Y. Zhou等人发型A插值结果发型B图7.第一次会议。插值比较。输入图像Chai等人我们图8. 在不同视图中与Autohair进行比较[4]。W e n g e tal。的方法产生了许多艺术效果,而我们的方法可以获得更自然、更流畅的效果。插值结果表明,我们的潜在的头发表示的有效性。更多插值结果请参考补充资料。我们还显示了视频跟踪结果(参见图10和补充视频)。这表明我们的输出可能无法实现足够的时间相干性。5结论我们已经展示了第一个能够从单视图图像执行实时毛发生成的深度卷积神经网络。通过训练端到端网络来直接生成最终的头发束,我们的方法可以捕获更多的头发细节,并实现比当前最先进的更高的准确性。作为我们的网络输入的中间2D方向场提供了灵活性,这使得我们的网络能够用于各种类型的毛发表示,例如图像、草图和扫描,给出适当的预处理。通过采用多尺度解码机制,我们的网络可以生成发型我们[Wen等人2103]发网13输入图像Chai等人我们图9.第九条。与Autohair比较以获得局部细节。[4]的文件。任意分辨率,同时保持自然外观。由于编码器-解码器架构,我们的网络提供了一个连续的头发表示,tation,从合理的发型可以顺利采样和interpolated。6局限性和未来工作我们发现,我们的方法无法生成奇特的发型,如图11所示的怪癖,非洲式或嗡嗡声发型我们认为主要原因是我们的训练数据库中没有这样的发型构建一个覆盖更多变化的大型头发数据集当毛发被部分遮挡时,我们的方法也会失败。因此,我们计划在未来通过添加随机遮挡来增强我们的训练此外,我们在本文中使用人脸检测来估计躯干的姿势,但可以通过使用深度学习来代替分割头部和身体目前,所生成的毛发模型对于视频帧而言在时间上相干性不足。整合时间平滑度14Y. Zhou等人005帧第094框架133第197第249作为训练的约束也是一个有趣的未来方向。虽然我们的网络为头发提供了更紧凑的表示,但这种潜在表示没有语义意义将显式标签(例如,颜色)到用于受控训练的潜在变量见图10。头发追踪和视频重建。图11个国家。失败案例。7确认我们感谢Weiyue Wang,Haoqi Li,Sitao Xiang和Tianye Li在设计算法和撰写论文时为我们这项工作得到了ONR YIP资助N 00014 -17-S-FO 14、CONIX研究中心(JUMP的六个中心之一)、DARPA赞助的半导体研究中心(SRC)计划、Andrew和Erna Viterbi早期职业主席、美国国防部科学技术研究所(U.S. Electrical Research Institute of Technology,简称DARPA)、美国国防部科学技术研究所(U.S. Electrical ResearchInstitute of Technology,简称U.S. Electrical Research Institute)的部分支持。陆军研究实验室(ARL),合同号W 911 NF-14-D-0005,Adobe和索尼。资料的内容并不一定反映政府的立场或政策,亦不应推断政府对此表示认可。发网15引用1. 艺术,E.:模拟人生资源(2017),http://www.thesimsresource.com/2. Beeler,T.,Bickel,B.,Noris,G.,Marschner,S.,Beardsley,P.,Sumner,R.W.,格罗斯,M.:稀疏面部毛发和皮肤的耦合三维重建ACM Trans.Graph. 三十一岁 117:1 (August2012年)。http://doi.org/10。1145/2185520。2185613,http://graphics.ethz.ch/publications/papers/paperBee12.php3. 曹,X.,魏,Y.,温,F.,孙杰:通过显式形状回归进行面部对齐。InternatinalJour nalofComuterVison107(2),1774. Chai,M.,Shao,T.,吴,H.,Weng,Y.,Zhou,K.:自动头发:从单个图像进行全自动头发建模。ACM Transactions on Graphics(TOG)35(4),116(2016)5. 柴M.,小王,L.,翁是的,金X.,周先生,K.:图像和视频中的动态头发处理。ACM事务处理图表32(4)、75:1(Jul2013年)。http://doi. org/10。1145/2461912。2461990,http://doi.acm.org/10.1145/2461912.24619906. Chai,M., Wang,L.,美国, Weng,Y., Yu,Y., Guo,B.,Zhou,K.: 用于人像操作的单视图头发建模。ACM事务处理图表31( 4) ,116 : 1(Jul2012 年) 。ht tps ://doi. org/10。1145/2185520。2185612,http://doi.acm.org/10.1145/2185520.21856127. Choe,B.,Ko,H.: 交互式发型生成的统计Wisp模型和伪物理方法。IEEE Trans.Vis. Comput. Graph.11(2)、160(2005年)的报告 。http : //doi.org/10 。 1109/TVCG.200520 ,http://dx.doi.org/10.1109/TVCG.2005.208. Choy,C.B.,徐,D.,Gwak,J.,Chen,K.,Savarese,S.:3d-r2 n2:用 于 单 视 图 和 多 视 图 3D 对 象 重 建 的 统 一 CoRR abs/1604.00449(2016),http://arxiv.org/abs/1604.004499. Echevarria,J.I.,布拉德利D、古铁雷斯D、比勒T.:捕获以及为3D制造定型头发。ACM事务处理图表33(4),125:1- 125:11(Jul2014)。http://doi. org/10。1145/2601097。2601133,http://doi.acm.org/10.1145/2601097.260113310. Fan,H.,Su,H.,Guibas,L.J.: 从单幅图像重建三维物体的点集生成网络。CoRR abs/1612.00603(2016),http://arxiv.org/abs/1612.0060311. 傅,H.,魏,Y.,Tai,C.L.,Quan,L.:素描发型。In:Proceedings of the4th EurographicsWorkshoponSketch-basedInter f acesandModel ing. pp. 31比36S B IM' 07,A C M,New York,NY,U S A(2007). http://doi.org/10。1145/1384429。1384439,http://doi.acm.org/10.1145/1384429.138443912. Girdhar河Fouhey,D.F.,Rodriguez,M. Gupta,A.:学习对象的可预测和 生 成 矢 量 表 示 。 CoRRabs/1603.08637 ( 2016 ) ,http://arxiv.org/abs/1603.0863713. Guerrero , P. Kleiman , Y. , Ovsjanikov , M. , 新 泽 西 州 米 特 拉 :Pcpnet:从原始点云学习局部形状属性计算机图形论坛(欧洲图形)(2017)14. Hadap,S.,卡尼议员Lin,M.,Kim,T.Y.,Bertails,F.,Marschner,S.,Ward,K.,Kaˇc i´c-Alesi´c,Z. :Strandsandhair:现代化、现代化和现代化。In:ACMSIGRAPH2007COURSS. pp. 1-150 ACM(2007)15. H a?e,C., Tulsiani,S., Malik,J. :高分辨率可用于三维重建。CoRRabs/1704.00710(2017),http://arxiv.org/abs/1704.0071016Y. Zhou等人16. 埃雷拉T.L.辛克一、韦伯答:照明头发从的内:毛发重建热方法。ACM事务处理图表31(6)、146:1(Nov2012年 ) 。http : //doi.org/10 。 1145/2366145 。 2366165 ,http://doi.acm.org/10.1145/2366145.236616517. 胡,L.,马,C.,Luo,L.,Li,H.:使用模拟示例进行稳健的毛发捕获。ACM Transactions on Graphics ( Proceedings SIGGRAPH 2014 ) 33 ( 4 )(2014年7月)18. 胡,L.,马,C.,Luo,L.,Li,H.:使用发型数据库的单视图头发建模。ACM Transactions on Graphics(TOG)34(4),125(2015)19. 胡,L.,马,C.,Luo,L.,Wei,L.Y.,Li,H.:捕捉辫子发型。ACMTransactions on Graphics(Proceedings SIGGRAPH Asia 2014)33(6)(2014年12月)20. 胡,L.,斋藤,S.,韦湖,加-地Nagano,K. Seo,J.,Fursund,J.,萨代吉岛孙角,澳-地Chen,Y.C.,Li,H.:从单个图像进行化身数字化以进行实时渲染。ACM Transactions on Graphics(TOG)36(6),195(2017)21. Jackson,A.S.Bulat,A.,Argyriou,V.Tzimiropoulos,G.:通过直接体积CNN回归从单个图像进行大姿态3D面部计算机视觉国际会议(2017)22. Jakob,W.,穆恩J.T. Marschner,S.:捕捉头发作为-semblies菲贝尔By菲贝河ACMTrans.Graph.28(5)、164 :1 - 164:9(2009年12月)。https://doi.org/10.1145/1618452.1618510,http://doi.acm.org/10.1145/1618452.161851023. Kim,T.Y.,Neumann,U.:交互式多分辨率头发造型的ndediting.ACMTrans.Graph.21(3)、620-629(2002年7月)。https://doi.org/10.1145/566654.566627,http://doi.acm.org/10.1145/566654.56662724. Kingma,D. Ba,J.:Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980(2014)25. Li,H.,特鲁托尤湖Olszewski,K.,韦湖,加-地Trutna,T.,Hsieh,P.L.,Nicholls,A.,Ma,C.:脸部表现感测头戴式显示器。ACMTransactions on Graphics(TOG)34(4),47(2015)26. Luo , L. , Li , H. , Rusinkiewicz , S. : 结 构 感 知 毛 发 捕 获 。 ACMTransactions on Graphics(Proceedings SIGGRAPH 2013)32(4)(2013年7月)27. Olszewski,K.,Lim,J.J.,斋藤,S.,Li,H.:用于虚拟现实头盔的高保真面部和语音动画。ACM Transactions on Graphics(Proceedings SIGGRAPHAsia 2016)35(6)(2016年12月)28. 巴黎,S.,Chang,W., 科茹什尼扬,O.I., Jarosz,W., Matusik,W., Zwicker,M., Durand,F.: 头发摄影棚:几何和真实发型的照相采集。ACM事务处理图表27(3),30:1- 30:9(Aug 2008)。http : //doi. org/10 。 1145/1360612 。 1360629 ,http://doi.acm.org/10.1145/1360612.136062929. Qi,C.R.,Su,H.,Mo K Guibas,L.J.:Pointnet:对点集进行深度学习,用于3D分类和分割。arXiv预印本arXiv:1612.00593(2016)30. Qi,C.R.,Yi,L.,Su,H.,Guibas,L.J.:Pointnet++:在度量空间中的 点 集 上 进 行 深 度 层 次 特 征 学 习 arXiv 预 印 本 arXiv : 1706.02413(2017)31. Riegler,G.Ulusoy,A.O.,Geiger,A.:Octnet:以高分辨率学习深度3D表示IEEE计算机视觉和模式识别会议论文集第三卷(2017)32. Tatarchenko,M.,Dosovitskiy,A.,Brox,T.:八叉树生成网络:用于高分辨率3D输出的高效卷积架构CoRR,abs/1703.09438(2017)发网1733. Tulsiani,S.,周,T.,埃夫罗斯,匿名戒酒会Malik,J.:通过可微射线一致性进行单视图重建的多视图监督CoRR abs/1704.06254(2017),http://arxiv.org/abs/1704.0625434. Wang,L.,美国,Yu,Y.,Zhou,K.,(1991年),郭先生:基于示例的头发几何体合成。ACMTrans. Graph. 28(3),56:135. Wang,P.S.,Liu,Y.,Guo,Y.X., Sun,C.Y. Tong,X.: O-cnn:基于八叉树的卷积神经网络,用于3D形状分析。ACM Trans.Graph. 36( 4 ) , 72 : 1- 72 : 11 ( 2017 年 7 月 ) 。 http : //doi. org/10 。1145/3072959。3073608,http://doi.acm.org/10.1145/3072959.307360836. Ward,K.,Bertails,F.,yong Kim,T.,Marschner,S.R.,paule Cani,M.,Lin,M.C.:关于头发造型的调查:造型、模拟和渲染。在:IEEETRANS-ACTIONONVISUALIZATIONANDCOMPUTERGRAPHICS 中 。 pp.21337. Weng,Y.,Wang,L.,美国,Li,X.,Chai,M.,Zhou,K.:用于肖像 变 形 的 头 发 插 值 。 计 算 机 图 形 论 坛 ( 2013 ) 。https://doi.org/10.1111/cgf.1221438. 徐志, 吴,H. T., Wang,L.,美国, Zheng,C.,中国地质大学,唐X.,齐Y:Dy-使用时空优化的动态毛发捕获。ACM事务处理图表33(6)、224:1(Nov2014年)。http://doi. org/10。1145/2661229。2661284,http://doi.acm.org/10.1145/2661229.266128439. Yu,Y.:建模逼真的虚拟发型。In:Computer Graphics and Applica-tions,20 0 1. 发布广告。 在PacicConfe nn c e n n ncen中。pp. 295-304 02The Dog(2001)40. Yuksel,C. Schaefer,S.,Keyser,J.:头发网格。ACM事务处理图表28( 5 ) 、166 : 1( Dec2009 年 ) 。http://doi. org/10 。1145/1618452。1618512,http://doi.acm.org/10.1145/1618452.16185124
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功