没有合适的资源?快使用搜索试试~ 我知道了~
具有大前景运动的深高动态范围成像吴尚哲1、3[0000−0003−1011−5963]、徐家瑞1[0000−0003−2568−9492]、戴玉荣2[0000−0002−3148−0380]、邓志强1[0000−0001−6495−3685]1香港科技大学2腾讯优图3牛津大学{swuai,jxuat}@ connect.ust.hk,yuwingtai@tencent.com,cktang@cs.ust.hk抽象。本文提出了第一个非基于流的深度框架,用于具有大规模前景运动的动态场景的高动态范围(HDR)成像。在现有技术的深度HDR成像中,输入图像在合并之前首先使用光流对准,这由于遮挡和大运动而仍然容易出错。与基于流的方法形成鲜明对比,我们将HDR成像公式化为没有光流的图像翻译问题。此外,我们简单的翻译网络可以在存在完全遮挡、饱和和曝光不足的情况下自动产生合理的HDR细节,否则这些细节几乎不可能通过传统的优化方法来恢复。我们的框架也可以扩展为不同的参考图像。我们进行了广泛的定性和定量比较,以表明我们的方法产生了优异的结果,其中与现有的最先进的方法相比,显着减少了颜色伪影和几何失真,并且在各种输入中具有鲁棒性,包括没有辐射校准的图像。关键词:高动态范围成像·计算摄影1介绍现成的数字相机通常无法捕获3D场景的整个动态范围为了产生高动态范围(HDR)图像,已经提出了定制的捕获和特殊设备[25,8,24]。不幸的是,它们通常太重和/或太昂贵,不能捕捉稍纵即逝的瞬间,以雪儿- ish,这是典型的拍摄使用手机相机。另一种更实用的方法是合并在不同曝光下捕获的几个低动态范围(LDR)图像如果LDR图像被完美地对准,换句话说,没有观察到相机运动或对象运动,则合并问题被认为几乎被解决[17,1]。然而,前景和背景的错位这部分工作是在吴尚哲在腾讯优图实习时完成的2S. Wu,J.徐玉-W. Tai和C.K. 唐Fig. 1. 我们的目标是从一堆LDR图像中产生HDR图像,这些LDR图像可能会被大的前景运动破坏,例如左侧所示的图像。我们得到的HDR图像在色调映射之后显示在右侧,前两列显示Kalantari [14]使用的光流对齐引入了严重的几何失真和颜色伪影,这些伪影不幸地保留在最终的HDR结果中。最后三列比较了由其他最先进的方法和我们的方法产生的结果,其中没有使用光流对准。我们的简单网络在存在大规模饱和度和前景运动的情况下产生高质量的无重影HDR图像在除了小的相机运动之外还存在大规模前景运动的情况下是不可避免的。虽然后者可以在很大程度上通过单应性变换[26]来解决,但另一方面,前景运动将使合成变得不平凡。解决该问题的许多现有解决方案易于在最终HDR图像中引入伪影或重影[15,31,14],或者无法通过简单地拒绝未对准区域中的像素作为异常值[16,9,19]来并入未对准的HDR内容1.一、最近的工作已经提出使用深度神经网络来学习这个合成过程[14]。在[14]中,他们首先使用光流来对齐输入LDR图像,然后将对齐的LDR馈送到卷积神经网络(CNN)中以产生最终的HDR图像。光流通常是不可靠的,特别是对于以不同曝光水平捕获的图像,这在存在大对象运动的情况下不可避免地引入伪影和失真。虽然在[14]中声称网络能够在合并过程中解决这些问题,但失败的情况仍然存在,如图所示。1,其中颜色伪影和几何失真在最终结果中非常明显。相比之下,我们把多个曝光镜头合并到HDR图像中作为图像平移问题,这在近年来已经得到了积极的研究。在[11]中,提出了一种强大的解决方案,使用生成对抗网络(GAN)学习两个域中图像之间的映射。与此同时,CNN已被证明具有学习错位[2]和幻觉缺失细节[30]的能力。受这些工作的启发,我们认为光流可能是HDR成像的过度在本文中,我们提出了一个具有大前景运动的3简单的端到端网络,可以学习将多个LDR图像转换为无重影的HDR图像,即使在存在大的前景运动的情况下。总之,我们的方法具有以下优点。首先,与[14]不同,我们的网络是端到端训练的,没有光流对齐,因此本质上避免了错误流引起的伪影和失真与流行的基于流的HDR成像方法[14]形成鲜明对比,这为HDR成像提供了新颖的视角和重要的见解,并且更快和更实用。第二,我们的网络可以幻觉出完全缺失的合理细节,或者它们在所有LDR输入中的存在非常弱。当处理大的前景运动时,这是特别期望的,因为通常由于饱和和遮挡,一些内容未在所有LDR中被捕获。最后,相同的框架可以容易地扩展到更多的LDR输入,并且可能具有任何指定的参考图像。我们进行了广泛的定性和定量比较,并表明我们的简单网络在HDR合成中优于最先进的方法,包括基于学习或基于优化的方法。我们还表明,我们的网络是强大的各种输入LDR,包括图像与不同的曝光分离和图像没有正确的辐射校准。2相关工作在过去的几十年中,许多研究工作一直致力于HDR成像的问题。如上所述,一个实际的解决方案是从LDR图像的堆叠中组成HDR图像。早期的作品,如[17,1]产生了良好的效果,静态场景和静态相机。为了处理相机运动,先前的工作[15,26,12]在将LDR图像合并到最终HDR图像中之前配准LDR图像。由于许多图像配准算法依赖于亮度一致性假设,因此在估计变换之前,亮度变化通常通过将图像映射到另一个域(诸如亮度域或梯度域)来解决与相机运动相比,对象运动更难处理。许多方法在合并过程中使用权重来拒绝移动像素[16,9]。另一种方法是在合并后检测和解决重影[4,21]。这样的方法简单地忽略未对准的像素,并且不能充分利用可用内容来生成HDR图像。还有更复杂的方法[15,31],依赖于光流或其变体来解决图像像素之间的密集对应关系。然而,当处理大位移时,光学流经常导致伪影和失真,从而在合并步骤中引入额外的复杂性。在这一类别的作品中,[14]可能产生了最好的结果,并且与我们的工作高度相关。作者提出了一种CNN,它学习将使用光流对齐的LDR图像合并到最终的HDR图像中。我们的方法与他们的不同之处在于,我们不使用光流进行对齐,这本质上避免了他们的结果中存在的伪影和失真。我们将在后面的章节中提供具体的比较。4S. Wu,J.徐玉-W. Tai和C.K. 唐(a) 网络架构(b)结构图二、 我们的框架是由三个组件:编码器,合并器和解码器。不同的曝光输入被传递到不同的编码器,并且在通过合并器和解码器之前被级联我们用两种结构进行了实验,Unet和ResNet。我们在镜像层之间使用跳过连接解码器的输出HDR在其可以被显示之前被色调映射解决密集对应的另一种方法是基于补丁的系统[23,10]。虽然这些方法产生了很好的结果,但运行时间要长得多,并且在存在大运动和大饱和区域的情况下经常失败最近的工作[3]尝试使用CNN从一个单个LDR图像重建HDR图像虽然他们的网络可以在输入LDR仅表现出非常弱的响应的区域中产生幻觉细节因此,我们打算探索更好的解决方案来合并来自多个LDR图像的HDR内容,其可以容易地在突发中被捕获,例如,使用手机相机。通常,产生HDR图像还涉及其他处理,包括辐射校准、色调映射和动态范围压缩。我们的工作重点是合并过程。此外,还有更昂贵的解决方案,使用特殊设备来捕获更高的动态范围[25,8,24]并直接生成HDR图像。对于这个问题的完整回顾,读者可以参考[5]。3方法我们将HDR成像的问题制定为图像平移问题。类似于[14],给定LDR图像集合{11,12,… Ik},我们定义参考图像Ir。在我们的实验中,我们使用三个LDR,并设置中间曝光镜头作为参考。相同的网络可以扩展以处理更多的LDR具有大前景运动的5输入,并且可能具有任何指定的参考图像。我们在第5.3节中提供了结果,以证实这种稳健性。具体来说,我们的目标是从一堆LDR图像中学习映射{I1,I2,I3}到与参考LDR输入Ir(与I2相同)对准并且包含最大可能HDR内容的无重影HDR图像H这些内容或者直接从LDR输入获得,或者从幻觉获得当他们完全消失的时候。我们专注于处理大的前景运动,并且假设通常在突发中拍摄的输入LDR图像具有小的背景运动。3.1网络架构我们利用翻译网络来学习这样的映射。所示图2,我们的框架本质上是一个对称的编码器-解码器架构,有两个变体,Unet和ResNet。Unet[22]是翻译学习的常用工具。它本质上是一个编码器-解码器架构,具有将编码器层(Conv)通过逐通道级联直接到对应解码器层(Deconv)的输入。在最近的图像翻译工作中,如[11],Unet已被证明在广泛的任务中是强大的。然而,与[11]中在对抗性设置中使用Unet不同,我们在HDR成像中可能不需要鉴别器网络,因为与[11]中的其他场景相比,从LDR到HDR的映射相对容易学习,其中[11]中的其他场景是这两个图像域更加明显,例如边缘图像。除了简单的Unet之外,我们还试验了另一种结构ResNet,类似于[13]中提出的图像变换网络,它简单地用残差块[7]替换中间层。类似的结构也在最近的翻译作品中使用[29]。在本文中,我们将这种结构命名为ResNet,而不是以前的Unet。我们将在后面的章节中比较它们的性能整体架构可以在概念上分为三个组件:编码器,合并器和解码器。由于我们具有多个曝光镜头,直观地,我们可以具有单独的分支以从不同的曝光输入提取不同类型的信息。我们没有复制整个网络,这可能会推迟合并,而是将前两层分离为每个曝光输入的编码器提取特征后,网络学习合并它们,主要是在中间层,并将它们解码成HDR输出,主要是在最后几层。3.2处理流水线和损失函数给定一堆LDR图像,如果它们不是RAW格式,我们首先使用相机响应函数(CRF)[6]的估计逆来线性化图像然后,我们应用伽马校正来产生到我们的系统的输入。6S. Wu,J.徐玉-W. Tai和C.K. 唐虽然为了恢复准确的辐射图,该过程在技术上是重要的,但是在实践中,我们的系统也可以在没有辐射校准的情况下产生视觉上合理的近似,诸如图1B中所示的示例10个。这是因为伽马函数可以是CRF的粗略近似。我们通过I={I1,I2,I3}来表示输入LDR的集合,通过它们的暴露来排序偏见我们首先将它们映射到HDR域中的H={H1,H2,H3}我们使用简单的gamma编码来进行映射:IγH1=1,γ>1(1)我不是其中ti是图像Ii的曝光时间。注意,我们使用H来表示目标HDR图像,并且使用H1来表示映射到HDR域的LDR输入。I1、H1和H的值被限制在0和1之间。然后,我们将I和H通道连接成6通道输入,并将其直接馈送到网络。这一点在[14]中也有提及LDR便于检测未对准和饱和,而曝光调整的HDR提高了具有各种曝光水平的LDR上的网络的鲁棒性因此,我们的网络f被定义为:H=f(I,H)(2)当H是实时HD图像时,所有内容都将在0和1之间进行。由于HDR图像通常在色调映射之后显示,因此我们在色调映射的HDR图像上计算损失函数,这比在HDR域中直接计算在[14]中,作者建议使用µ-law,它通常用于音频处理中的范围压缩:T(H)=log(1+µH)log(1+µ)(三)其中,H是HDR图像,μ是控制压缩级别的参数我们将µ设置为5000。虽然还有其他强大的色调映射器,但它们中的大多数通常都很复杂,并且不能完全微分,这使得它们不适合训练神经网络。最后,我们的损失函数定义为:LUnet=T(H)−T(H)2(4)其中H是地面实况HDR图像。4数据集我们使用[14]提供的数据集进行训练和测试。虽然其他HDR数据集是可用的,但它们中的许多数据集要么不具有地面实况HDR图像,要么仅包含非常有限数量的场景。该数据集包含89个具有地面真实HDR图像的场景。如[14]所述,对于每个场景,具有大前景运动的7表1.CPU环境下测试集上平均运行时间的比较。森[23]胡[10]卡兰塔里[14] HDRCNN [3] OursUnet我们的ResNet时间(s)26113772.112.611.914.7表2.Kalantari测试集结果的定量比较[14]。前两行是使用色调映射输出和地面实况计算的PSNR/SSIM,并且随后两行是使用线性图像和地面实况计算的PSNR/SSIM最后一行是HDR-VDP-2 [18]疮。所有值均为原始测试集中15个测试图像的平均值森[23]胡[10] 卡兰塔里[14] OursUnet我们的ResNetPSNR-T40.8035.7942.7040.8141.65SSIM-T0.9808 0.97170.98770.98440.9860PSNR-L38.1130.7641.2240.5240.88SSIM-L0.9721 0.95030.98450.98370.9858HDR-VDP-259.3857.0563.9864.8864.90当物体移动时,拍摄了3张不同的曝光照片,另一张在物体保持静止时拍摄了3次。静态集合用于参考中等曝光镜头产生地面实况HDR。然后,该中等曝光参考镜头替换动态集中的中等曝光镜头。所有图像的大小都调整为1000× 1500。每个集合由曝光偏差为{− 2}的LDR图像组成。0,0。0,+2。0}或{− 3。0,0。0,+3。0}。 我们还测试了我们在Sen的数据集[ 23]和T u r s un的数据集[27,28]上的tral n ed模型。4.1数据准备为了专注于处理前景运动,我们首先使用简单的单应性变换来对齐背景,这不会引入伪影和失真。这使得学习比没有背景对齐的直接训练更有效。比较和讨论见第5.4节。4.2数据增强和补丁生成[14]将数据集分为74个训练示例和15个测试示例为了有效的训练,我们不是将原始的全尺寸图像输入到我们的模型中,而是将图像裁剪成256×256块,步长为64,产生约19000个补丁。然后我们执行数据增强(翻转和旋转),进一步将训练数据增加8倍。事实上,这些补丁中的大部分仅包含背景区域,并且表现出很少的前景运动。为了使训练集中在前景运动上,我们通过对不同曝光镜头之间的结构相似性进行阈值化来检测大的运动补丁,并在训练集中复制这些补丁。8S. Wu,J.徐玉-W. Tai和C.K. 唐图三. 与几种最先进的方法进行比较。在图的上半部分中,左列示出了输入LDR,中间是我们的色调映射HDR结果,并且最后三列示出了在HDR图像中标记的三个放大的LDR区域。 下半部分将我们的结果的放大HDR区域与其他区域进行比较。底部括号中的数字表示色调映射图像的PSNR从Kalantari测试集获得图像5实验和结果5.1实现细节我们首先执行辐射校准并将输入LDR映射到HDR域。每个得到的辐射图分别与LDR图像逐通道级联,然后分别馈送到不同的编码器。在2层之后,所有特征图然后逐通道级联以用于合并。编码层是步长为2的卷积层,而解码层是步长为1/2的去卷积层内核最后一个去卷积层的输出所有层都使用5× 5内核,然后是批量归一化(除了第一层和输出层)和泄漏ReLU(编码层)或ReLU(解码层)。在编码过程中,每层的通道数从64加倍到512,在解码过程中,每层的通道数从512减半到64。具有大前景运动的9见图4。与基于流量的方法的比较[14]。从Kalantari的数据集[14]和Tursun的数据集[27,28]获得图像。图五. 幻觉的例子。左侧仅使用中等曝光拍摄生成,而右侧使用低、中、高曝光拍摄生成。图像从Kalantari的数据集获得对于Unet结构,256× 256个输入块通过8个编码层以产生1× 1× 512块,随后通过8个解码层加上输出层以产生256× 256个HDR块。我们的ResNet不同之处仅在于,经过3个编码层后,32× 32× 256块通过9个具有3× 3内核的残差块,然后是3个解码层和一个输出层。5.2运行时间我们在表1中报告了与其他方法的运行时间比较。虽然我们的网络是用GPU训练的,但其他传统的优化方法是用CPU优化的。为了公平比较,我们在CPU环境下,在配备i7- 4790 K(4.0GHz)和32 GB RAM的PC上评估了所有方法我们使用3个尺寸为896× 1408的LDR图像作为输入来测试所有方法。注意,[14]中使用的光流对准平均花费59.4s当使用GPU(Titan X Pascal)运行时,我们的Unet和ResNet分别需要0.225s和0.239s5.3评价和比较我们进行定量和定性评估,并将结果与最先进的方法进行比较,包括两种基于补丁的方法[23,10],运动10S. Wu,J.徐玉-W. Tai和C.K. 唐图六、对比幻觉的细节。我们的网络对缺失的树干纹理产生幻觉,而其他人可能会失败。图像从Kalantari的数据集获得拒绝方法[19]、具有CNN合并器的基于流的方法[14]和单图像HDR成像[3]。对于所有方法,我们使用了作者提供的代码。请注意,所有HDR图像都是在使用Photomatix[20]进行色调映射后显示的,这与训练中使用的色调映射器不同定量比较我们使用μ -law在色调映射之前和之后计算所生成的HDR和地面实况HDR之间的PSNR和SSIM分数。我们还计算了HDR-VDP-2[18],这是一种专门设计用于测量HDR图像视觉质量的指标。对于用于计算HDR-VDP-2分数的两个参数,我们将对角线显示尺寸设置为24英寸,并且观看距离设置为0.5米。我们没有定量地与[19]和[3]进行比较,因为前者针对多于5个LDR输入进行了优化,而后者产生无界HDR结果。表2显示了我们的网络与当前状态的定量比较。并非所有的结果都在Kalantar测试集[14]上进行了计算虽然[14]导致PSNR分数略高,但我们的方法导致可比较的SSIM分数和略高的HDR-VDP-2分数。此外,ResNet似乎比Unet产生更高的分数。定性比较图3将测试结果与最先进的方法进行比较。在没有对象运动的区域中,所有方法都产生不错的结果。然而,当饱和区域中存在大对象运动时,[23,具有大前景运动的11图7.第一次会议。 高光区域的比较。例子来自Sen见图8。不同参考图像的结果。第一行示出了三个LDR输入,并且第二行示出了参考每个输入的对应HDR结果。10,14]往往会产生难看的伪影。基于流的方法[14]也产生几何结构。由于Oh的方法[ 19]使用随机噪声,通常需要更多的输入,当应用3个输入时由于HDRCNN [3]仅使用一个单个参考LDR图像来估计HDR图像,因此它不会遭受对象运动,但往往会产生不太清晰的结果并且在大的饱和区域中失败,如图2所示。1.我们的两个网络产生了比较好的结果,没有明显的文物和失真。总的来说,ResNet似乎一直优于Unet。与基于流程的方法的比较。1和图3,Fig. 4.在 Kalantar方法[ 14]中,使用图像或广告视频,其中光学我们的方法不依赖于错误的光流,这本质上避免了这种失真,并且在计算上也更有效幻觉我们的方法的一个重要特征是幻觉丢失的细节的能力,这几乎是不可能恢复使用传统的12S. Wu,J.徐玉-W. Tai和C.K. 唐见图9。具有更多输入LDR的结果。括号中的整数指示用于产生HDR的LDR图像(a) 三星Galaxy S5(b)华为Mate 9(c)iPhone 6s见图10。没有辐射校准的HDR结果。所有示例都是使用具有不同CRF的手机拍摄的新颖图像。优化方法如图5,当仅给定中等曝光度时,我们的网络能够在饱和区域中适当地产生草纹理。当给出另外两个曝光镜头时,我们的网络能够包含额外的信息,例如地面纹理。在图6中,我们通过将我们的结果与没有幻觉的其他结果进行比较来检查幻觉的有效性。幻觉在动态场景中可以是非常有用的,因为过度曝光或曝光不足区域中的内容由于对象运动引起的完全遮挡而在所有LDR中经常丢失。除图外还突出显示。4,在那里我们表明,我们的方法outper-[14]在突出显示的区域,图。7将我们的亮点细节与其他人进行比较。虽然其他方法通常无法恢复高光区域中的细节并引入伪影和失真,但我们的方法通常效果良好。 具体地,Hu的方法[ 10]在高强度区域上形成了一种有效的方法,并且其他方法可以部分地恢复这些数据。 Kalantar的方法[ 14]倾向于引入明显的失真和颜色伪影,如图1B所示。7.第一次会议。具有大前景运动的13见图11。此示例说明背景对齐的效果。图12个。视差效应导致的模糊结果,无法通过单色变换解决。不同的参考图像图图8示出了我们的图像转换公式的另一个优点:选择不同参考图像的灵活性。目前,这通过重新布置输入LDR来实现。例如,仅使用低曝光和高曝光镜头并以{低-低-中}的顺序将它们馈送到网络将导致参考低曝光镜头的伪HDR图像。从技术上讲,该输出并不表示准确的辐射值,但在感知上引人注目并且类似于真实的HDR图像。如果以这种方式训练,我们的框架可以扩展到直接输出具有不同参考图像的多个HDR图像,尽管我们没有适当的数据集来证实这一点。更多输入LDR我们的框架可以潜在地扩展以支持多于3个输入LDR。这是有用的,因为更多的LDR捕获更多的内容并提高鲁棒性。虽然我们没有合适的数据集来充分地分析这些数据,但我们建议使用Sen的数据集进行分析[23]。我们使用他们产生的HDR图像作为用于训练的地面实况,其对于用作地面实况来说还不够完美,但是足以用于我们测试这种可扩展性的使用该数据集,我们使用5个LDR输入测试了我们的图9.我们的结果与其他人比较。有趣的是,虽然Sen的[ 23]使用5,但并不意味着可以直接使用这些选项14S. Wu,J.徐玉-W. Tai和C.K. 唐3个输入,在我们的结果中,在饱和和曝光不足的区域的细节显着改善,通过使用更多的输入LDR。我们还在新颖的手机图像上测试了我们的模型,以证明其实用性,如图所示10个。我们的网络在各种设置中产生良好的效果使用具有不同相机响应功能的不同手机捕获输入图像值得注意的是,当产生这些伪HDR示例时,我们没有执行辐射校准。这再次证明了我们网络的鲁棒性。5.4背景对齐在我们所有的实验和比较中,由于我们专注于处理大的前景运动,所以我们使用同态变换来对齐LDR输入的背景在没有背景对齐的情况下,我们发现我们的网络往往会产生模糊的边缘,其中背景很大程度上未对齐,如图所示。11.这可能是由于背景运动引起的混乱,CNN通常在处理这一问题上很弱然而,这些问题可以使用简单的单应性变换来容易地回想一下,在实践中,LDR输入可以使用现今的手持设备在一瞬间内的突发中被捕获。然而,单应性并不总是完美的。单应性可能不会产生完美对准的一个特定情况是饱和区域中存在视差效应。最终HDR输出可能是模糊的。见图12个。6结论和未来工作在本文中,我们证明了HDR成像的问题可以被模拟为图像平移问题,并使用深度CNN来解决。我们进行了大量的定量和定性实验,以表明我们的非基于流的CNN方法优于最先进的方法,特别是在存在大的前景运动的情况下。特别地,我们的简单平移网络本质上避免了由错误的光流对准产生的失真和伪影,并且在计算上更有效。此外,我们的网络可以在具有大前景运动的大部分饱和区域中产生幻觉,并且比其他方法更好地恢复突出区域。我们的系统也可以很容易地扩展更多的输入,并与不同的参考图像,不限于中等曝光LDR。它在不同的输入中也是鲁棒的,包括未经辐射校准的图像。虽然我们的优势很明显,但它还不是一个完美的解决方案。我们还观察到以最小数量的输入LDR恢复大规模饱和区域的挑战。在未来,我们将尝试将高层次的知识,以促进这种复苏,并制定一个更强大的解决方案。鸣谢本作品得到了腾讯优图的部分支持。具有大前景运动的15引用1. Debevec,P.E.,Malik,J.: 从照片恢复高动态范围辐射图。第24届计算机图形与交互技术年会论文集。pp. 369-378. SIGGRAPH '97,ACM Press/Addison-WesleyPublishingCo.,NewYork,NY,USA(1997)。https://doi.org/10.1145/258734.2588842. 做得很好A Fische r,P., I Ig,E.,Hsse r,P., Hazırbas,C., Golkov,V.,v.d. Smagt,P., Cremers,D. Brox,T.:FlowNet:学习 光学 流卷积网络inIEEEICCV(2015),http://lmb.informatik.uni-freiburg.de/Publications/2015/DFIB153. Eilertsen,G.,Kronander,J.,Denes,G. Mantiuk河Unger,J.:使用深cnn从单次曝光重构HDR图像ACM TOG36(6)(2017)4. 加洛O.,格尔方兹N.,陈先生,W.C.蒂科M.,普利K.:神器-免费高动态范围成像。 2009年IEEE国际会议 计算摄影(ICCP)pp. 1-7(2009年4月)。https://doi.org/10.1109/ICCPHOT.2009.55590035. 加洛岛Sen,P.:基于堆栈的HDR捕获和重建算法。In:Dufaux,F. Callet,P.L.,Mantiuk,R.K.,姆拉克,M。(编辑)高动态范围视频,pp. 85 - 119中国科学院出版社. https://doi.org/10.1016/B978-0-08- 100412-8.00003-66. 格罗斯伯格医学博士Nayar,S.K.:从图像中确定相机响应:什么是可知的?IEEETransactions on Pattern Analysis and Machine Intelligence25(11),1455-1467(2003年11月)。https://doi.org/10.1109/TPAMI.2003.12401197. 他,K.,张,X.,Ren,S.,孙杰:用于图像识别的深度残差学习。CoRRabs/1512.03385(2015),http://arxiv.org/abs/1512.033858. Heide,F.,Steinberger,M.,蔡耀东Rouf,M.,Pajk,D.,雷迪,D.加洛岛刘杰,Heidrich,W.,Egiazarian,K.,Kautz,J.,Pulli,K.:Flexisp:一个灵活的相机图像处理框架。 ACM TOG 33(6)(2014年12月)9. Heo,Y.S., Lee,K.M., Lee,S. U., Moon,Y., Cha,J.: 无鬼高动态Range Imaging,pp.486-500 Springer Berlin Heidelberg,Berlin,Heidelberg(2011).https://doi.org/10.1007/978-3-642-19282-1 www.example.com10. 胡,J,加洛岛普利,K.,太阳,X.:HDR去重影:如何应对饱和?In:IEEECVPR(2013)11. Isola,P.,Zhu,J.Y.,周,T.,Efros,A.A.:使用条件对抗网络的图像到图像翻译。IEEE CVPR(2017)12. Jacobs,K.,Loscos,C. Ward,G.:动态场景的高动态范围图像自动生成。IEEEComputer Graphics and Applications28 ( 2 ) , 84-93 ( 2008 年 3 月 ) 。https://doi.org/10.1109/MCG.2008.2313. Johnson,J.,Alahi,A.,李菲菲:实时风格转换和超分辨率的感知损失(2016)14. Kalantari,N.K.,Ramamoorthi,R.:动态场景的深高动态范围成像。ACMTOG36(4)(2017)15. Kang,S.B.,Uyttendaele,M.,Winder,S.,Szeliski,R.:高动态范围视频。ACM TOG 22(3),319-325(2003年7月)。https://doi.org/10.1145/882262.88227016. Khan,E.A.,Akyuz,A.O.,Reinhard,E.:高动态范围的重影消除图 像 . 2006 年 国 际 图 像 处 理 会 议 。 pp. 2005-2008 年 ( 2006 年 10 月 ) 。https://doi.org/10.1109/ICIP.2006.31289217. Mann,S.,皮卡德,R.W.:关于数码相机的“非数字化”:通过组合不同曝光的图片来扩展动态范围。在:成像科学和技术的会议记录。pp. 44216S. Wu,J.徐玉-W. Tai和C.K. 唐18. 曼秋克,R.,金姆,K.J.Rempel总检察长海德里希W.:HDR-VDP-2:一 校准 视觉 度量 为 可见性和质量预测在所有亮度条件 。 ACMTOG30⑷ , 40 : 1-40 : 14 ( 2011 年 7 月 ) 。https://doi.org/10.1145/2010324.196493519. T.H. 李, J.Y. 阿泰 Y.W., 权 I.S.:鲁棒 高 动态 范围 成像 通过 秩最小化。IEEE交易对帕特-tern Analysis and Machine Intelligence37(6),1219-1232(June 2015). https://doi.org/10.1109/TPAMI.2014.236133820. Photomatix:Photomatix. www.hdrsoft.com(2017)21. Raman , S. , Chaudhuri , S. : 动 态 场 景 的 高 对 比 度 图 像 重 建 。 The VisualComputer27(12),1099-1114(2011年12月)。https://doi.org/10.1007/s00371-011-0653-022. Ronneberger,O.,Fischer,P.,Brox,T.:U-Net:Convolutional Networks forBiomedicalImageSegmentation ,pp.234-241.SpringerInternationalPublishing,Cham(2015). https://doi.org/0.1007/978-3-319-24574-4 2823. Sen , P. , Kalantari , N.K. , Yaesoubi , M. , Darabi , S. , 戈 德 曼 , D. B.Shechtman,E.:动态场景的鲁棒的基于块的HDR重建。ACM TOG31(6),203:124. Serrano,A. Heide,F.,Gutierrez,D. Wetzstein,G.,Masia,B.:用于高动态范围成像的卷积稀疏编码。计算机图形论坛35(2)(2016)25. 托奇医学博士,凯泽C.的方法,托奇N.,森P.:一多功能HDR视 频 制 作 系 统 . ACM TOG30 ⑷ , 41 : 1-41 : 10 ( 2011 年 7 月 ) 。https://doi.org/10.1145/2010324.196493626. Tomaszewska,A.,Mantiuk,R.:多曝光高动态范围图像采集中的图像配准。在 : 国 际 会 议在岑欧 洲 计 算 机 图 形 学 和 可 视 化 ,WSCGhttp://wscg.zcu.cz/wscg2007/Papers27. 你好,O. T., A k yuüz,A. O., Erdem,A., Erdem,E. HDR去重影技术的现状调查与评价ComputerGraphicsForum34(2),683https://doi.org/10.1111/cgf.1259328. 你好,O. T., A k yuüz,A. O., Erdem,A., Erdem,E. :用于HDR图像的质 量 度 量 的 非 零 比 特 度 。 Computer Graphics Forum35 ( 2 ) ,139https://doi.org/10.1111/cgf.1281829. Zhu,J.Y.,Park,T. Isola,P.,Efros,A.A.:使用循环一致性对抗网络的未配对图像到图像翻译。In:IEEE ICCV(2017)30. Zhu,S.,Liu,S.,Loy,C.C.,唐X:用于面部幻觉的深度级联双网络。In:ECCV(2016)31. Zimmer,H.,Bruhn,A.,Weickert,J.:具有同时分辨率增强的运动场景的手绘HDR 成 像 。 Computer Graphics Forum30 ( 2 ) , 405-414 ( 2011 ) .https://doi.org/10.1111/j.1467-8659.2011.01870.x
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- IEEE 14总线系统Simulink模型开发指南与案例研究
- STLinkV2.J16.S4固件更新与应用指南
- Java并发处理的实用示例分析
- Linux下简化部署与日志查看的Shell脚本工具
- Maven增量编译技术详解及应用示例
- MyEclipse 2021.5.24a最新版本发布
- Indore探索前端代码库使用指南与开发环境搭建
- 电子技术基础数字部分PPT课件第六版康华光
- MySQL 8.0.25版本可视化安装包详细介绍
- 易语言实现主流搜索引擎快速集成
- 使用asyncio-sse包装器实现服务器事件推送简易指南
- Java高级开发工程师面试要点总结
- R语言项目ClearningData-Proj1的数据处理
- VFP成本费用计算系统源码及论文全面解析
- Qt5与C++打造书籍管理系统教程
- React 应用入门:开发、测试及生产部署教程
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功