基于RGB-D扫描的对抗性纹理优化方法

需积分: 17 0 下载量 26 浏览量 更新于2024-08-05 收藏 3.46MB PDF 举报
"这篇资源是来自CVPR(计算机视觉与模式识别会议)的论文‘Adversarial Texture Optimization From RGB-D Scans’,作者包括来自斯坦福大学、慕尼黑工业大学、谷歌研究以及加州大学伯克利分校的研究人员。该论文探讨了如何从RGB-D扫描中重建高质量纹理,以解决由于几何重建不准确、相机姿态偏差和视差依赖成像 artifact 导致的现实色彩纹理生成的挑战。" 论文提出了一种新颖的方法,利用条件对抗损失来生成逼真的纹理,这种方法基于弱监督视图。传统方法通常通过优化参数化色彩映射来减少对齐错误(如Zhou和Koltun的工作),而该论文则学习了一个容忍对齐误差的判别器,从而能生成清晰的纹理。 在实际的RGB-D表面重建过程中,由于几何重建的不精确性,比如3D模型和实际物体形状之间的差异,会导致纹理映射出现错位。此外,不同的相机拍摄角度和视差效应可能导致图像的不一致,进一步增加了生成真实感纹理的难度。论文中的方法旨在克服这些困难,即使在近似表面上也能生成照片级的逼真纹理。 作者们通过引入对抗网络(Adversarial Network)来训练模型,这个网络能够区分真实图像和生成的纹理,从而推动生成纹理的质量提升。条件对抗损失(Conditional Adversarial Loss)在这种情况下起到关键作用,它允许模型在缺乏精确对齐信息的情况下学习到鲁棒的纹理表示。 通过实验和比较,论文展示了所提方法相对于现有技术的优势,尤其是在处理不完美数据时,能生成更清晰、更连贯的纹理。这对于增强现实、虚拟现实、3D建模等领域的应用具有重要意义,因为它能够提高重建模型的真实感和视觉吸引力。 这篇CVPR论文为RGB-D扫描的纹理重建提供了一个创新的解决方案,通过对抗性学习来应对几何不准确性和相机对齐问题,为3D表面重建领域带来了显著的进步。