深度时空一致性增强算法提升高压缩视频质量

0 下载量 103 浏览量 更新于2024-08-27 收藏 399KB PDF 举报
本文档探讨了一种新颖的深度空间-时间一致性增强算法,该算法针对基于多视图视频加深度的自由视角视频系统。在这样的系统中,为了确保生成高质量的虚拟视图和提升压缩性能,消除深度视频中的不一致性至关重要。作者提出了一种预处理方法,利用贝叶斯概率模型和竞争学习策略(Rival penalized competitive learning)结合自组织映射(Self-Organizing Maps, SOM),对深度视频的时空信息进行校正。 首先,通过聚类技术将深度视频中的每个灰度值分配到特定类别,这一步骤有助于识别并区分深度数据中的不同区域和模式。然后,贝叶斯概率模型被用于估计深度信息的准确性,它考虑了先前观测数据的概率分布,从而提供了一种统计框架来预测和修正潜在的不精确度。 Rival penalized competitive learning作为一种竞争性学习机制,通过引入惩罚机制来优化深度视频中的竞争过程。在SOM中,神经元之间的竞争有助于调整其权重,使得相邻神经元具有相似的输入特征,从而提高了深度数据在时间和空间维度上的一致性。这种方法不仅考虑了深度帧内的变化,还考虑到帧间的连续性,增强了整体的视觉效果和压缩编码的效率。 实验部分展示了算法在多组图像序列(如Ballet_color_S7T4、Ballet_color_S7T5等)上的应用,以及在深度帧(Ballet_depth_S7T4、Ballet_depth_S7T5)中的效果。通过对比分析(如FDinA,B和FDinD,E),研究者证明了该算法在消除深度视频不一致性和提高压缩性能方面取得了显著的效果。 总结来说,这项工作提出了一种创新的方法,有效地解决了多视点自由视角视频中深度信息的空间和时间一致性问题,对于提升虚拟现实体验和系统性能具有实际价值。对于那些关注视频压缩、多视点成像和深度学习的IT专业人士而言,这篇论文提供了有价值的技术参考和理论支持。