"2020年CVPR最佳论文‘Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild’由Shangzhe Wu, Christian Rupprecht 和 Andrea Vedaldi等人发表,来自牛津大学的Visual Geometry Group。此研究提出了一种新颖的无监督学习方法,能从自然环境中的单视图图像中学习3D可变形物体。"
论文的核心在于解决3D物体建模中的关键问题,即如何在没有外部监督的情况下,从单个2D图像中提取深度、反射率、视角和光照等关键信息。传统的3D建模通常依赖于多视图数据或地面实况3D信息,而这篇最佳论文提出的方法则打破了这一限制。
该方法基于自动编码器架构,这是一种能够学习输入数据压缩表示并能重构输入的神经网络模型。在该模型中,输入图像被分解为四个组成部分:深度图(Depth)、反射率(Albedo)、视角(Viewpoint)和光照(Illumination)。深度图代表物体表面的距离,反射率表示物体的颜色和纹理,视角确定物体在图像中的位置和朝向,而光照则影响物体在图像中的表现。
在无监督学习阶段(见图中Training Phase),模型仅使用单视图图像进行训练,不依赖任何额外的监督信息,如3D地面实况数据、多视图信息或预先存在的对象模型。模型利用一个假设,即许多物体类别在理论上具有对称性,这种对称性可以作为解耦这些组件的线索。
经过训练后(见图中Testing Phase),模型能够从单个图像中重建3D可变形物体实例的姿势、形状、颜色和光照,且具有高保真度。这种方法的应用包括3D重建、纹理重绘和光照重塑,展示了其在现实世界图像上的强大泛化能力。
论文提供的代码和演示可以在https://github.com/elliottwu/unsup3d找到,这为研究人员和开发者提供了实现和扩展该方法的平台。该工作的创新性和实用性使其在2020年的计算机视觉和模式识别会议(CVPR)上获得了最佳论文奖,对于推动无监督学习在3D视觉领域的应用具有重大意义。