对于对象轮廓,我们的网络基于点到边界的距离产生损失,而不是像
[21,37,34]中那样惩罚二进制交叉熵损失。我们广泛的实验表明,
使用这些组合的每视图和多视图损失产生更准确和密集的点云表示比
任何以前的方法。
我们在本文中的贡献总结如下:
–
我们提出了一种新的变形深度图表示的三维物体重建的基础上,
多个规范的意见,这是有效的,绕过前景/背景阈值,导致结构错
误;
–
我们展示了如何使用深度网络从单个视图有效地回归这种表示;
–
我们为我们的网络引入了一种新的损失,它结合了每视图损失-
–
我们广泛评估我们的方法,显示更准确,更密集的点
云比目前最
先进的方法。我们包括分别证明上述贡献值的消融实验
2
相关工作
单幅图像的三维重建一直是计算机视觉领域的一个长期问题虽然单个
图像可以提供关于场景或对象外观的丰富因此,必须求助于其他信息
源作为3D重建的附加输入。
附加图像的使用是一个典型的例子。这个分支的工作尝试 找到视图
之间的几何对应关系以恢复几何,例如 [13][14][15][16][17][18][19]然
而,这些方法需要密集的视点,因为必须保留局部外观用于特征匹配。
为了放松密集视点的约束,轮廓雕刻[24,19]和空间雕刻
[20]已提出这些方法的特点是在凹结构上失败的缺点和需要多个视
图。
另一种类型的附加信息是先验知识。使用先前的知识提高了对不正确
的特征匹配和凹度(例如,椅子应该在两个扶手之间凹进去)。一些先
前的工作使用简单的几何实体作为形状先验[27,2]。最近,Kar
et al
. [16]
利用了物体的规则性。对于特定的对象类别,它们从具有呈现的感兴趣
对象和对应的分割掩模的大量图像集合中学习可变形模板。Dame等人[6]
提出了一个框架,结合了SLAM与可变形对象模板。而不是学习一个单
一的或几个可变形的模板,像黄
等的
方法。[12]和Kurenkov
等人
。[18]使
用图像特征来检索相似的3D形状,从这些形状变形为目标形状。
尽管我们的方法也使用变形,但我们的变形与他们的方法之间的
差异是双重的:首先,我们执行2D