没有合适的资源?快使用搜索试试~ 我知道了~
水下图像颜色重建的改进与应用
1Sea-thru:一种水下图像去水方法海法大学derya. gmail.com,ttreibitz@univ.haifa.ac.il摘要对水下图像中丢失的颜色进行鲁棒恢复仍然是一个具有挑战性的问题。我们最近表明,这部分是由于普遍使用的大气图像形成模型的水下图像,并提出了一个物理上准确的模型。修订后的模型显示:1)信号的衰减系数在整个场景中不是均匀的,而是取决于目标范围和反射率,2)控制反向散射随距离增加的系数不同于信号衰减系数。在这里,我们提出了第一种方法,重新覆盖颜色与我们的修订模型,使用RGBD图像。Sea-thru方法使用暗像素及其已知范围信息来估计反向散射。然后,它使用的空间变化的光源的估计,以获得的范围相关的衰减系数。使用我们提供的来自两个光学不同水体的1,100多张图像,我们表明,我们的方法与修订后的模型优于使用大气模型的方法。水的持续去除将为强大的计算机视觉和机器学习算法打开大型水下数据集,为水下探索和保护的未来创造令人兴奋的机会。1. 介绍水下图像的颜色重建是一项艰巨的任务,目前还没有鲁棒的算法。我们最近表明,常用的图像形成模型是部分原因[1],因为它是针对大气[48]推导的,忽略了水下光的强烈波长依赖性。我们提出了一个修改后的模型,该模型显示:1)直接和反向散射信号由不同的系数控制(旧模型假设它们是相同的),以及2)这些系数中的每一个都依赖于除了水的光学特性之外的因素(旧模型忽略了它们)。虽然修改后的模型在物理上更准确,但它有额外的参数,使其应用困难。在这里,我们提出了Sea-thru方法,概述了如何估计这些参数,以获得更好的场景恢复。图1. Sea-thru方法从水下图像中去除水。最好在线查看颜色和细节。像ImageNet [20]这样的大型图像数据集在点燃人工智能热潮方面发挥了重要作用,在过去的二十年里,人工智能推动了科学和工业领域的许多重要发现[39]。然而,水下领域并不缺乏大型图像数据集,并没有从计算机视觉和机器学习方法的全部力量中受益,这些方法使这些发现成为可能,部分原因是水掩盖了场景的许多有计算价值的特征。水下照片相当于在空气中拍摄的照片,但覆盖在厚厚的彩色雾中,受光源的白点和强度随距离变化的影响。很难为代表全球海洋的不同光学条件训练基于学习的方法,因为校准的水下数据集价格昂贵,并且在逻辑上难以实现。16821683CC图2. 水下成像由形式为Ic=Dc+Bc的方程控制。Dc包含具有衰减的颜色的场景,Bc是强烈依赖于水的光学性质的退化信号,并且最终主导图像(在此针对灰色斑块示出)。插图显示了Dc和Bc为在27 m海洋水中成像的Macbeth海图。获得。现有的方法,试图扭转由于水的降解是不稳定的,太敏感,或仅适用于短的对象范围。因此,大型水下数据集的分析平均而言,人类专家在一个小时长的视频中花费超过2个小时来识别和计数鱼类[59]。Sea-thru方法旨在一致地从水下图像中去除水,因此可以以更高的效率分析大型数据集。它的工作原理如下:给定RGBD图像,其以受针对霾开发的暗通道先验(DCP)启发的方式来估计后向散射[34],但是利用已知的范围图。接下来,它使用优化框架来使用使用局部空间平均颜色[23]作为输入获得的照明图来估计范围相关衰减系数。我们表明,距离相关的衰减系数可以建模为2项指数,这大大减少了优化步骤中的未知数。我们贡献了在两种光学上不同的水类型中获得的1,100多幅图像(可在http://csms.haifa.ac.il/profiles/tTreibitz/treets/sea_thru/index.html获得)。在这些图像和[7]提供的另一个水下RGBD数据集上,我们定性和定量地表明,第一个使用修订后的图像形成模型的Sea-thru2. 相关作品Nayar和Narasimhan [48]开发了恶劣天气的图像形成模型。假设散射系数在每个颜色通道中的摄像机灵敏度范围内是恒定的,从而导致每个波长的系数。这种模型后来被广泛用于恶劣天气,后来又被用于水下环境。[52].对于场景恢复,这些方法需要不止一帧的场景,或额外的信息,如3D结构。该模型被进一步简化为仅包括一个衰减系数,在所有颜色通道上均匀。这样做是为了能够从模糊的单图像中恢复[8,26,33,57],后来也用于水下回收[17,19,21,44,49]。虽然在水下场景中对所有颜色通道使用相同的系数是非常粗略的近似[1],但每个通道使用一个系数可以产生不错的结果[9,13,52,56,58]。然而,正如我们进一步证明的那样,它们的准确性本质上受到模型的限制。先前使用DCP [33]、其一些变体[17,19,21,44]或其他先验[9,49]从单个图像估计后向散射。衰减系数可通过海洋光学仪器(如透射仪或光谱仪)进行测量[11]。然而,由于光谱灵敏度和接收角的差异,它们不能原样用于成像此外,这些工具部署起来既因此,最好直接从图像估计衰减系数。最基本的方法是在已知距离拍摄校准目标[60]。在[63]中,系数取自估计的遮盖光,忽略照明颜色。在[9]中,每个通道的衰减系数是使用灰色世界假设估计的。其他人[19,44,55]通过使用仅针对一种水类型测量的固定衰减系数来缓解这个问题已知的距离稍微简化了问题,并通过将多个图像的数据拟合到图像形成模型[13,51,55]来用于估计后向散射和衰减。深度网络最近被用于重建水下场景[43,53]。然而,它们的训练依赖于纯合成数据,因此高度依赖于仿真模型的质量。到目前为止,所有方法都假设衰减系数只是水的属性,并且每个颜色通道在场景中是均匀的,但正如我们在[1,2]中所示,这是一个不正确的假设,会导致重建中的错误。3. 科学背景水下成像受以下因素控制:Ic=Dc+Bc,(1)其中c=R,G,B是颜色通道,Ic是摄像机捕获的图像(具有失真的颜色),D c是包含有关(衰减)场景信息的直接信号,B c是反向散射,由于悬浮在水柱中的颗粒反射的光而使图像劣化的附加信号(图1)。2)的情况。分量Dc和Bc由两个不同的系数βD和βB控制,这两个系数分别是宽带(RGB)衰减系数和反向散射系数[1,2]。1684CCC----CCCCcEq的扩展形式1为[1]:Ic=Jc e −βD(vD)·z.∞+BC1−e −βB(vBΣ)·z、(二)其中z是相机与场景中的对象之间沿着视线的范围(距离),B∞是遮蔽光,并且Jc是在相机的位置处捕获的未衰减场景,如果沿着z没有衰减的话。 矢量vD=z,ρ,E,Sc,β和vB=E,Sc,b,β表示系数βD和βB对范围z,反射率ρ,图3. a)使用Pho toscan Professional(Agisoft LLC)从68张照片创建的3D模型。b)图1中的图像的范围图z(以米为单位)。1从这个模型中得到。我们在海底放了一张彩色图表来设定比例。c c4. Sea-thru方法环境光E,相机的光谱响应Sc,以及水体的物理散射和光束衰减系数b和β,它们都是波长λ的函数。 以前,假设βD=βB,基于Eqs. 如图2 - 4所示,为了恢复Jc,需要知道或估计以下参数:光学水型去离子水c c由b、β和Kd终止;光Ed,并且这些系数对于给定的[9]但在[1]中,我们已经证明它们是不同的,而且它们依赖于不同的因素。当量公式2被公式化用于在水平方向上成像。 然而,在整个工作中,我们将其应用于沿着视线z的相机和场景,拍摄照片的深度d,场景中每个物体的反射率ρ,以及相机的光谱响应Sc。这些参数很少,如果有的话,知道在水下照片在[1]中,我们证明βD是最在不同方向拍摄的场景,假设Bc偏差很小未来的工作应测试的适用性方程。2不同的成像方向。连接RGB系数βD和βB与波长相关的物理量是[1]:受z的影响很大,βc受光学水型和照度E.因此,我们-以解决这些特定的依赖性。由于系数随成像角度和曝光度而变化[1],我们假设它们通常不能被转换。∫λ2S(λ)ρ(λ)E(d,λ)e−β(λ)zdλ<$,在图像之间传递,即使是用同一台相机顺序拍摄的图像,我们估计了一个βD= lnλ1贝兹,只从那个图像中得到图像cλ2λ1ΣSc(λ)ρ(λ)E(d,λ)e∫λ−β(λ)(z+<$z)dλ<$Σ(三)4.1. 成像和距离图生成由于βD很大程度上取决于z,我们需要有一个范围2S(λ)B∞(λ)(1−e−β(λ)z)dλ,λ1这是一个场景的地图,我们使用的结构,从-βB=−ln 1−Cλ2B∞(λ)S(λ)dλz.运动(SFM),通常用于水下测量λ1c(四)珊瑚礁的结构复杂性(例如,[12、15、16、27、28、42])以及在考古学中(例如,[45,46])。我们的方法需要一个这里,λ1和λ2是可见范围(400和700nm),E是深度处的环境光的光谱D.垂直穿透的光基于扩散下降衰减Kd(λ)[47]衰减,不同于光束衰减系数β(λ)[1,47],光束衰减系数β(λ)[1,47]仅是海洋中溶解物质的类型、成分和密度的函数[47]。如果E(0,λ)在海面上是轻的,那么在深度d处的E(d,λ)是[2]:E(d,λ)= E(0,λ)e−Kd(λ)d。(五)在Eq.2给出为:z的绝对值,而SFM只提供范围,所以我们在场景中放置了已知大小的对象(图2)。(3)第三章。当从水下航行器成像时,它们的导航传感器可以提供速度或高度。另一种方法是立体成像(例如,[7,9,35,54]),其需要使用两个同步相机,并且在成像勘测开始之前进行直接的水中校准。4.2. 场景重建从Eqs &12我们有:βD(z)zC1685C−C∫λ2Jc=Dc ec、(8)哪里B∞=∞Sc(λ)Bλ1Σ∞(λ)dλ,Σ(六)其中D c=I cB c。在这里,我们明确地保持z依赖性-我们必须考虑βD的相关性,但我们将忽略其他相关性。Jc是其颜色仅沿z方向校正的图像,并且取决于成像几何形状,B(λ)=b(λ)E(d,λ)β(λ)。(七)尝试,它可能需要进一步的校正,以实现颜色1686CCC→→→我们建模为:ˆ∞−βBz′ −βD′zB c= Bc (1 −eC)+Jce c、(10)′其中表达式Jc e−βD′z 代表了一个小的残差行为类似于直接信号的使用非线性最小二乘拟合,我们估计参数B∞,βB,J′,C c c和βD′分别服从边界[0,1]、[0,5]、[0,1]和[0,5]对于这一步,我们忽略β D ′的z依赖性。如果有关相机传感器、水类型等的信息如果可以,则βD和βB的界限可以进一步C c使用[1,2]中描述的位点进行精炼。图4.在不同范围内成像的彩色图表。a中的顶行示出了原始图像Ic,并且底行示出了对应的Dc,或去除了反向散射的图像。b)用这里描述的方法(x)和[ 1 ]中描述的基于比色图表的反向散射计算方法(o)为每个颜色通道计算的B c;值几乎相同。这是在海面上拍摄的照片。令Js表示在表面处拍摄的图像。然后,Js=Jc/Wc,(9)其中Wc是相机处的环境光的白点在深度d)处,并且Js是全局白平衡的。4.3. 后向散射估计后向散射随z呈指数增加,最终达到饱和(图1)。2)的情况。其中场景反射率ρc0(all光吸收),或E0(完全阴影),捕获的RGB强度IcBc。我们搜索图像中非常暗或阴影的像素,并使用它们来获得反向散射的初始估计。我们的方法是类似于DCP的,它试图找到的反向散射信号的Dc是最小的,但它不同的基本方式,我们利用一个已知的范围图,而不是试图估计it.Additionally,我们寻找最暗的RGB三元组,而不是找到最暗的像素独立在每个颜色通道,我们不形成一个黑暗的通道图像。我们的方法识别的少量未连接的像素是足够的,因为我们有相应的范围信息,以及Bc如何与z行为的物理模型(但请参见第2节中关于成像角度的注释)。(3)第三章。我们如下估计后向散射:首先,我们将距离图划分为10个均匀分布的簇,这些簇跨越z的最小值和最大值。在每个范围聚类中,我们在I c中搜索底部1个百分位数的RGB三元组,我们将其表示为Ik。然后在整个图像中,Bc()Ic()是后向散射的过高估计1687≫CCCC→取决于场景,残差可以从等式中省略。如果找到的暗像素的反射率是完美的黑色;如果它们在阴影下;如果z很大;或者如果水非常浑浊(Bc Dc),则为10在所有其他情况下,包括剩余项是重要的。在珊瑚礁场景中,由于其复杂的3D结构,通常有许多阴影像素提供直接的后向散射估计。图4展示了该方法在校准实验中的性能。我们在蓝色海水中的浮标线上安装了一张海图(以尽量减少海底和水面的相互反射),并在我们游向它时拍照。反向散射的面纱效应在远图像中清晰可见,随着相机和图表之间的z减小而减小(图1A)。4a)。 对于每幅图像,我们使用图中的消色差补丁计算地面实况后向散射,如[ 1 ]所述,并且还使用这里描述的方法估计它(图1)。4 b)。所得的B c值几乎相同;没有输入(例如,水型)而不是Ic和z来获得该结果。请注意,在任何图像中,颜色图表的黑色斑块都没有以Ω为单位拾取,这表明它确实只是深灰色,比真正的黑色或阴影像素要浅得多。4.4. 衰减系数估计4.4.1βD作为z的函数我们以前证明βD随范围z变化最强烈[1,2]。检查设备3表明这种变化是指数衰减的形式。在我们描述如何从图像中提取βD(z)之前,我们用公式表示βD和z之间的关系。图5显示了[2]中的一个实验,我们将彩色图表和尼康D90相机安装在一个相距约20 cm的框架上,并在拍摄照片时将此配置从表面降低到30 m深度。由于图表和相机之间的距离z很小,因此相机和图表之间的后向散射和衰减都可以忽略不计,J C. 在该设置中,颜色损失是由于有效衰减系数作用在距海面的垂直距离d中,并且在每个深度处的环境光Wc1688CCCCCCCCCCCCC′−β(z)zCC图5.使用[ 2 ]中的数据集,我们以三种不同的方式计算βD(z):从同一物体在两个不同距离处的照片中提取该图像;使用环境光的白点,使用等式1计算它。9;并使用Eq. 3 .第三章。对于该数据集,将颜色图表(DGK Color Tools)和相机安装在彼此非常接近的框架上,使得Ic → Jc。该框架从表面成像使用尼康D90在红海30米深处拍摄。a)由相机捕获的原始图像(顶行;未示出全部)以及使用消色差补片(底行)进行白平衡后的相同图像。手动调节每个图像中的亮度以用于可视化。b)为了模拟βD的值,我们使用了来自[38]的尼康D90的光谱响应,假设表面处的CIE D65光[61],测量第二亮的灰色斑块的反射率(注意,它不均匀反射),对于光学水类型,使用我们在现场测量的漫射下降衰减系数Kd(λ)(洋红色曲线c)。这条曲线与Jerlov定义的海洋水类型(c中的黑色曲线)[36,37]非常吻合。d)βD随z呈2项指数衰减,如所有三种方法所示。从每个图像中,我们以两种不同的方式计算垂直方向上的有效βD:从成对图像如[2]中所述,并通过使用Eq.9例Wc浸提βD(z)的估计如下:βD(z)=−logE(z)/z。(十二)从颜色图表中第二个(24%)灰色斑块的强度。此外,我们还使用了Eq。3利用[38]中相机的光谱响应和我们测量的水体(垂直方向)的Kd(λ)计算该水类型的βD理论值。图5中三种估计βD的方法都表明βD随距离(在本例中为d)衰减。基于图中的数据。5和其他模拟,我们使用以下形式的2项指数来描述β D对任何范围z的依赖性:β D(z)=a exp(b z)+c exp(d z)。(11)对于短距离,β D(z)也可以建模为直线。4.4.2图像βD(z)的粗估计局部地估计发光体是计算颜色恒定性(例如,[6、10、22、29、32、41])。几种方法,最值得注意的是模仿人类对不同照明的折扣能力的Retinex模型[30,62]),最近的一项工作表明,大气图像去雾和Retinex之间存在直接的线性关系[31]。如果从原始图像中适当地去除后向散射,我们可以期望许多多光源估计方法在水下图像上工作得很好。在这里,我们采用了[24]中描述的局部空间平均颜色(LSAC)方法的变体,因为它利用了已知的范围图。此方法的工作原理如下:对于颜色通道c中的给定像素(x,y),通过更新以下等式来迭代地估计局部空间平均颜色a c(x,y):′1Σ′ ′假设成功地从图像Ic中移除Bc,我们现在可以继续从直接信号估计βD(zac(x,y)=eac(x,y)(13)Ne华盛顿特区来自Eq.2、直接信号是产品场景Jc(在摄像机位置)的衰减ac(x,y)=Dc(x,y)p+ac(x,y)(1−p),(14)D在EC 。因此,场景Jc的恢复N1689′Cez(x,y)′减小到其中邻域Ne被定义为4-连通的在空间上变化的相机和场景之间的照明映射的估计的问题。给定局部照明映射E(z)的估计,我们可以得到与(x,y)处的像素相邻的更接近于它的像素比范围阈值∈:N(x′,y′)=(x′,y′),其中<$z(x,y)−<$≤∈。(十五)1690CCCC/CC−∞ −∞ ∞∞βD(z)设置场景深度角度BC水型图片数量相机透镜D1礁10m下来低明确559索尼α7R Mk III索尼FE 16- 35 mmf/2.8GMD2礁10m下来高明确318索尼α7R Mk III索尼FE 16- 35 mmf/2.8GMD3礁4m所有低明确68索尼α7R Mk III索尼FE 16- 35 mmf/2.8GMD4峡谷4- 9个月下来高混浊153Nikon D810尼克尔35毫米f1.8D5礁5m向前med明确59Nikon D810尼克尔35毫米f1.8表1.我们为每个图像提供基于SFM的范围图的数据集每个集合包含多个带有颜色图表的图像这里,a(x,y)的初始值对于所有像素被取为零,因为在大量迭代之后,起始值将是无关紧要的。参数p描述了计算平均值的局部支持区域,并取决于图像的大小;较大的P意味着将为较小的邻域计算局部空间平均颜色。然后,局部光源图被发现为E_c=fac,其中f是基于几何体同等地缩放所有颜色通道的因子,并且可以基于所观看的场景来发现对于相机和场景之间的垂直方向,我们使用f= 2[234.4.3βD(z)的精化估计接下来,我们利用已知的距离图z,并改进从等式2中找到的βD(z)12-15 服从命令z.我们重写Eq。12如:5. 数据集我们贡献了五个水下RGBD数据集(表1)。所有这些都是在自然照明下以原始格式采集的,对于给定的集合具有恒定的曝光设置,并且包含具有彩色图表的多个图像。6. 结果:验证和误差分析我们使用表1中的数据集和[7]中的立体RGBD数据集来测试以下场景:S1. 简单的对比拉伸。S2. 前一个模型对Bc的估计不正确。具体来说,我们使用DCP [34],它通常在水下场景中对Bc进行重新我们使用了内置的imreducehaze函数。S3. 前一个模型,具有正确的B c估计值(即,修正B∞和βB),并假定βc=βD=βB。c c c c c c cz=− 我的上帝,βD(z),(16)S4. 修正模型,正确估计B c和J c在不进行简化计算的情况下,可按Jc=Dc/Eccβ D(z)。最小化:CBminz−z,(17)C其中βD(z)以等式的形式定义。11,参数a,b,c,d。用于获得衰减指数的这些参数的下限和上限将分别是[0,,0,]和[,0,,0];但是可以使用从等式(1)获得的粗略估计来缩小。12个。使用βD(z)的精细估计,我们使用等式(1)恢复Jc。8.在Jc中,环境光的空间变化已经被校正,因此剩下的全部是全局白点Wc的估计。这可以使用基于统计或学习的方法来完成(参见[32]的调查);在这里,对于包含足够多样化的颜色集合的场景,我们采用简单且快速的灰色世界假设[14],并且对于单色场景(例如在我们接下来介绍的数据集D4中),我们使用来自[18]不依赖于颜色信息。4.5. 冲印1691CCCCC )S5. Sea-thru,它使用修正模型,其中βc=β D,以及β D= β D(z),11个国家。由于Sea-thru是第一个使用修正的水下图像形成模型的算法,并且具有具有范围图的优势,因此我们不测试其针对也尝试估计范围/透射的单一图像颜色重建方法的性能。在对这些方法进行细致的调查后,[7]中的作者发现,基于DCP的方法[21,50]无法始终如一地校正颜色,而其他方法[3,4,5,25]旨在增强图像,而不是实现物理上的精确校正。[7]中提出的方法确实旨在恢复物理准确的颜色(使用前一种模型),但仅适用于场景中距离足够大的水平成像,因此不适用于我们的许多图像。我们在图6中的D1-5和图6中的[7]的立体数据库上呈现原始图像、范围图和相应的S1-S5结果。7 .第一次会议。为了进行评估,我们使用每个图表的六个灰度补丁和纯灰色之间的RGB角度误差ΔR,每个图表我们使用摄像机流水线操作平台de-在[40]中描述将Sea-thru输出转换为标准=(1/6)cos−1(十八)颜色空间,在步骤6之前将它们插入到流水线中,并指定用于白平衡的单位矩阵。如[7]。较低的值表示更好的校正(尽管参见下面的例外情况);误差(以度为单位)为、1692CC图6. D1-5的结果(表1)。 对于每个图表和方法,四舍五入到插图中给出的最近整数;图表#1最接近相机。数据集的平均误差为:原始:20.57,S1:12.49,S2:14.38,S3:21.77,S4:4.13,S5:(Sea-thru)6.33。在图1和图2的插图中列出。67每个彩色图表的场景,有他们,四舍五入到最接近的整数。在所有情况下,当场景距离或多或少均匀时,全局的简单对比度拉伸S1工作良好。DCP方法(S2)通常会高估反向散射(可以提高可见度),并且通常会扭曲和混淆颜色。例如,应该是统一颜色的沙子在两个数据集中都显示为绿色和紫色在D1 3272中,S2中颜色表的灰色斑块具有可见的紫色伪影,但其误差较小5、不求最优解,不求最优RIC用于量化颜色重建误差。 在S3-S5中,减去正确量的Bc。在S3中,衰减用常数βD校正,正如使用前一模型的方法所做的那样当在范围中存在大的变化时图7),恒定βD假设的失败是最明显的,并且这也是S5具有最大优势的地方(尽管S3在具有短距离的场景中也失败,例如,D3 4)。距离图通常在距离相机最远的地方最不准确,这也增加了在远距离重建颜色的难度。S4有时在色卡上产生比S5更低的误差。这是有意义的,因为它更容易计算卡上的发光体;如何以往任何时候都S5的结果是更好的完整的场景。S4可以1693C−图7. 在[ 7 ]的立体数据集上的结果。 它们的距离图被进一步处理以去除假像素。四舍五入到最接近的整数是插图中的given;图表#1最接近相机。S1和S2不使用范围图;对于其他人,lack的值表示缺少范围信息。所有图像的平均误差为:raw:22.28,S1:6.83,S2:10.03,S3:12.04,S4:4.46,S5:(Sea-thru)4.94。用于比先前方法更好的一阶校正。7. 结论Sea-thru的优势来自于为海洋设计的图像形成模型,它提供了对水下世界的一瞥,而没有扭曲的颜色。它强调了βD和βB是不同的,并且βD的z依赖性不能被多个彩色图表在现场,但评估限于图表并不总是告诉完整的故事。Sea-thru是向强大的计算机视觉和机器学习算法开放大型水下数据集的重要一步,并将有助于在我们的海洋因污染,过度捕捞和气候变化而日益增加压力的时候促进水下研究。C c忽视我们专注于恢复z依赖性最突出的,但在未来的计划,也恢复ρ-依赖性,以提高校正。由于恢复这些复杂的依赖关系是非常具有挑战性的,深度网络应该比我们使用的估计方法表现得更好由于在这种环境下无法获得地面实况,因此必须根据正确的图像形成模型通过精心设计的模拟进行训练。仔细的模拟也有助于解决这项工作中出现的另一个挑战:结果评估[7]中发表的数据集是经过大量努力才获得的,8. 致谢这项工作得到了The Leona M.和哈里B. Helmsley慈善信托基金、Maurice Hatter基金会、科学、技术和空间部资助#3 12487、ISF资助#680/18、Technion Ollendorff Minerva视觉和图像科学中心、海法大学机构博士后项目。我们感谢汤姆·施莱辛格,黛博拉·利维,马坦·尤瓦尔,本·辛格,H. Can Karaimer和埃拉特的大学海洋科学研究所1694引用[1] D. Akkaynak和T.崔比兹一种修正的水下成像模型。InProc. IEEE CVPR,2018. 一、二、三、四[2] D. Akkaynak , T. Treibitz ,T. 施 莱辛 格 河Tamir , Y.Loya和D.伊鲁兹水下计算机视觉中衰减系数的空间是什么?InProc. IEEE CVPR,2017. 二三四五[3] C.安库蒂角O.安库蒂角德弗莱舒韦尔河Garcia和A. C.波维克多尺度水下去散射。在proc IEEE国际Conf. 模式识别(ICPR),第4202-4207页,2016年。6[4] C.O.安 库 蒂 ,C.安 库 蒂 ,C.DeVleeschouwer,以及P. Bekaert. 水下图像增强的色彩平衡与融合。IEEETrans.图像处理,27(1):379- 393,2018。6[5] C. O.安库蒂角安库蒂角德弗莱舒韦尔湖Neumann和R.加西亚用于水下去雾和深度估计的颜色转移。 在procIEEE国际Conf. 图像处理(ICIP),第695-699页,2017年。6[6] S.比格普尔角Riess,J. Van De Weijer,and E.安-杰洛普洛 。 条 件 随 机 场 多 光 源 估 计 。 IEEE Trans. ImageProcessing,23(1):83-96,2014. 5[7] D. Berman,D.利维,S。Avidan和T.崔比兹使用Haze-lines和新的定量数据集进行水下单图像颜色恢复二三六八[8] D. Berman,T. Treibitz和S.阿维丹非局部图像去雾。InProc. IEEE CVPR,2016. 2[9] D. Berman,T. Treibitz和S.阿维丹潜入雾线:水下图像的颜色恢复。 在proc英国机器视觉会议(BMVC),2017年。二、三[10] M. 布 莱 耶 角 Riess , S. Beigpour, E. Eibenberger , E.Angelopoulou,T. Tr?o?ge r和A. 考普 颜色恒定和非均匀照明:现有的算法可以工作吗?在Proc. IEEEICCV Workshops,第774-781页,2011中。5[11] D. L.邦焦尔诺湾Bryson和S. B.威廉姆斯基于动态光谱的水下色彩校正。在procMTS/IEEE海洋,2013年。2[12] M.布赖森河Ferrari,W.菲盖拉岛Pizarro,J. 马丁S. Williams和M.伯恩利用运动恢复结构和摄影测量测量海洋生境结构复杂性的测量误差特征生态与进化,7(15):5669-5681,2017。3[13] M. Bryson,M. Johnson-Roberson,O. Pizarro和S. B.威廉姆斯自主水下航行器图像的真彩色校正。J. FieldRobotics,2015. 2[14] G.布克斯鲍姆物体颜色感知的空间处理器模型。富兰克林研究所,310(1):1-26,1980。6[15] J. Burns,D.德尔帕特河Gates和M.小林将运动合成结构摄影测量与geospatial软件相结合,作为量化珊瑚礁三维生态特征的新技术PeerJ,3:e1077,2015年。3[16] J. Burns,D.德尔帕特湖Kapono,M.贝尔特河门和M.小林使用创新的3D重建技术评估严重海洋学方法,15:49-59,2016。3[17] N. Carlevaris-Bianco,A. Mohan和R. M. Eustice水下单幅图像去雾的初步结果 在procMTS/IEEE海洋,2010年。2[18] D. Cheng,D.K. Prasad和M.S. 布朗颜色恒定性的照明估计:空间域方法工作的原因和颜色分布的作用。JOSAA,31(5):1049- 1058,2014. 6[19] J. Y. Chiang和Y. C.尘基于波长补偿和去雾的水下图像增强。IEEE Trans. Image Processing,21(4):1756-1769,2012。2[20] J. 邓,W。东河,巴西-地索赫尔湖J. Li,K.Li和L.飞飞ImageNet:一个大规模的分层图像数据库。2009年CVPR09中。1[21] P. Drews, E. 纳西门托 F. 莫赖斯 S. Botelho,以及M.坎波斯水下单幅图像传输估计。IEEE ICCV水下视觉研讨会论文集,第825-830页,2013年。二、六[22] M.艾伯纳色彩恒常性,第6卷。John Wiley Sons,2007年。5[23] M.艾伯纳基于局部空间平均颜色的颜色恒常性。Machine Vision and Applications,20(5):283-301,2009. 二、六[24] M. Ebner和J.汉森 深度贴图颜色恒定性。生物学Algorithms and Med-Systems,9(4):167-177,2013。5[25] S.恩伯顿湖Chittka和A.卡瓦拉罗基于纯雾区分割的水下图像和视频去雾计算机视觉和图像理解,168:145-156,2018。6[26] R. 肥塔尔使用颜色线进行去雾处理 ACM Trans. onGraph- ics(TOG),34(1):13,2014. 2[27] R. Ferrari,D.麦金农,H.赫利河N. Smith,P.科克M. Gon za'lez-R iv ero,P. J. 妈妈和B。厄普克罗夫特 量化多尺度生境结构复杂性:一个具有成本效益的水下3D建模框架。遥感,8(2):113,2016. 3[28] W.菲盖拉河Ferrari、E. Weatherby,A. Porter,S. Hawes和M.伯恩从水下摄影测量导出的生境结构复杂性度量的准确性和精确性。遥感,7(12):16883-16900,2015. 3[29] G. D. 芬莱森湾诉Funt和K.巴纳德变光照下的颜色 在proc IEEE ICCV,第720- 725页,1995年。5[30] X. Fu,P. Zhuang,Y. Huang,Y.黄氏Y. Liao,X.- P.Zhang,以及X.丁一种基于retinex的单幅水下图像增强方法。正在进行IEEE国际图像处理(ICIP),第4572-4576页,2014年。5[31] A. Galdran,A.Alvarez-Gila,A.Bria,J.巴斯克斯-科拉尔,以及M. Bertalm 'ıo。论retinex与图像去雾的二重性。在Proc.IEEE CVPR,第8212-8221页,2018年。5[32] A. Gijsenij,T.Gevers,J.Van De Weijer等人计算颜色恒定性:调查和实验。IEEE图像处理,20(9):2475-2489,2011. 五、六[33] K. 他,J.Sun和X.唐使用暗通道前去除单个图像雾度在Proc. IEEE CVPR,2009年。2[34] K. 他,J.Sun和X.唐使用暗通道前去除单个图像雾度1695IEEE PAMI,33(12):2341-2353,2011. 二、六1696[35] J. Henderson,O.皮萨罗约翰逊-罗伯森和我马汉。用立体视觉摄影测量法绘制水下考古遗址。国际航海考古学杂志,42(2):243-256,2013年。3[36] N.杰洛夫辐照度光学分类。爱思唯尔,1968年。5[37] N. G.杰洛夫海洋光学第14卷。爱思唯尔,1976年。5[38] J. Jiang,D. Liu,J. Gu,and S.暂停彩色数码相机的光谱灵敏度函数的空间是多少?在IEEE计算机视觉研讨会应用(WACV)中,第168-179页,2013年。5[39] M. I. Jordan和T. M.米切尔机器学习:趋势、前景和前景。Science,349(6245):255-260,2015. 1[40] H. C. Karaimer和M. S.布朗用于操纵相机成像流水线的软件平台。在Proc. ECCV中,第429-444页。施普林格,2016年。6[41] E. H.兰德和J. J。麦肯 亮度和视网膜理论。J. Optical Society of America,61(1):1-11,1971. 5[42] J. X.莱昂角M. Roelfsema,M. I. Saunders和S. R.菲恩用运动恢复结构近景摄影测量法测量珊瑚礁地形粗糙度。Geo- morphology,242:21-28,2015. 3[43] Y. Li,H. Lu,J. Li,X. Li,Y. Li和S.芹川基于深度神经网络的水下图像去散射与分类。计算机电气工程,54:68-77,2016。2[44] H. Lu,Y.利湖,澳-地Zhang和S.芹川浑浊水体中图像的对比度增强。JOSA A,32(5):886-893,2015年。2[45] McCarthy和J.本杰明水下考古遗址记录的多图像摄影测量:一种可访问的、基于潜水员的方法。J. MaritimeArchaeology,9(1):95- 114,2014。3[46] J. Mertes,T. J.古利利用存档的潜水员获得的视频调查,评估运动软件创建十九世纪后期大湖区沉船3D模型的结构。 J. Maritime Archaeology,9(2):173-189,2014. 3[47] C. D. 莫布里光与水:自然水体中的辐射传递。学术出版社,1994年。3[48] S. K. Nayar和S.G. 纳拉希姆汉恶劣天气下的视力一、二[49] Y.-- T.彭、X。Zhao和P. C.科斯曼基于模糊度深度估计的单幅水下图像增强。在Proc. IEEE ICIP,第4952-4956页,2015中。2[50] Y.-- T.彭、X。Zhao和P. C.科斯曼基于模糊度深度估计的单幅水下图像增强。正在进行IEEE国际图像处理(ICIP),第4952-4956页,2015年。6[51] M. Roser,M. Dunbabin和A.盖革同时水下能见度评估,增强和改进立体声。 在IEEE会议机器人和自动化,第3840- 3847页,2014年。2[52] Y. Y. Schechner和N.卡佩尔用偏振分析法恢复水下可见度和结构 IEEE J. 海洋工程,30(3):570-587,2005.2[53] Y.-- S.申,Y。周湾,澳-地Pandey和A. Kim.用普通卷积结 构 估 计 环 境 光 和 透 射 图 。 InProc. MTS/IEEEOCEANS,2016. 2[54] M. Shortis和E. H. D. Abdo.水下立体影像测量在海洋生物学与生态学上的应用。海洋学和海洋生物学,第269-304页。CRC Press,2016. 3[55] K. A. Skinner,E. Iscar和M.约翰逊-罗伯森公司水下场景三维重建中的自动色彩校正。在Proc. IEEE国际会议机器人和自动化(ICRA),第5140-5147页,2017年。2[56] O. Spier,T. Treibitz和G.吉尔博混浊介质的原位无目标校准。InProc. IEEE ICCP,2017. 2[57] R. T. Tan. 恶劣天气下的可见性,从一个单一的图像。在IEEE CVPR,2008年。2[58] T. Treibitz和Y. Y.谢克纳主动极化去散射。IEEE Trans.PAMI,31(3):385-399,2009年。2[59] K.威廉斯角,澳-地Rooper和J.伤害国家海洋渔业局自动图象处理研讨会报告
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功