J. Janai
,
F.Guéney
,
A.Ranjan
,
M.Black
和
A.
盖革
在本文中,我们建立在PWC-Net上,因为他们的框架是轻量级的,产生最先
进的结果,并允许我们的多帧公式的优雅集成。除了光流,我们的模型还考虑
了遮挡。与完全监督设置[8- 11 ]相比,我们在没有地面实况流的情况下训练我
们的
无监督学习:深度神经网络对大型注释数据集的依赖性最近推动了无监督学习
技术的发展。已经针对单个图像深度预测[16,36-39]、在典型的无监督光流框
架中,光度损失与无纹理区域的平滑度损失结合使用[15更具体地,目标图像根
据预测的流量被扭曲,并且使用光度损失与参考图像进行比较。通常,使用编
码器-解码器网络[15,17-20]
。
Patr auceanetal. [17]
将简单的编码器
-
解码器网络与
卷积LSTM相结合,以合并来自先前帧的信息。我们还在多个帧上使用光度损
失,但不是使用LSTM,我们修改了[11]中提出的网络架构,以在三个帧上使用
恒定速度假设直接编码时间关系
最近,[19,20]提出从光度损失中排除遮挡区域,以避免误导信息。虽然他
们两人共同学习的向前和向后流动,梅斯特等人。[20]使用前向-后向一致性检
查和Wang et al. [19]用反向流创建范围图,对参考帧中每个像素的对应性进行然
而,这两种方法都使用启发式算法来获得最终的遮挡图。而不是使用一个启发
式,我们估计的遮挡图联合光流。我们将流量和遮挡估计与我们的光度损失相
关,通过根据遮挡估计对来自未来和过去的信息进行加权。这种联合公式使我
们能够从头开始训练我们的遮挡感知模型,而[20]则需要在没有遮挡推理的情
况下进行预训练。另一项关于深度和自我运动的无监督学习的最新工作[39]使
用光度损失函数预测可解释性掩模以排除动态对象和遮挡。虽然[39]仅解决静
态场景,但我们针对一般的无约束光流问题,并学习在此设置中联合预测流动
和遮挡区域
3
方法
在本文中,我们提出了一种利用多帧进行光流和遮挡的无监督学习的方法在光
流的无监督学习中,只有光度损失提供指导。光度损失根据流量估计扭曲目标
帧,并将扭曲的目标帧与参考帧进行比较。由无纹理区域引起的局部模糊性用
在相邻像素之间传播信息的附加空间平滑度约束来处理。然而,由于由非朗伯
反射、遮挡、大运动和照明变化引起的模糊,以无监督方式学习光流是复杂的
考虑多个帧可以帮助解决一些模糊性,特别是由遮挡引起的模糊性因此,我们
提出了一种多帧公式来训练卷积神经网络,以联合预测流场和遮挡