没有合适的资源?快使用搜索试试~ 我知道了~
Junpeng Jing1, * , Xin Deng1, ∗, Mai Xu2, † , Jianyi Wang2, Zhenyu Guan1, †47330HiNet:通过可逆网络进行深度图像隐藏0,1 北京航空航天大学网络科学与技术学院,中国北京 2北京航空航天大学电子与信息工程学院,中国北京0{ junpengjing, cindydeng, MaiXu, guanzhenyu } @buaa.edu.cn0摘要0图像隐藏旨在以不可察觉的方式将秘密图像隐藏到封面图像中,然后在接收端完美地恢复秘密图像。容量、隐形性和安全性是图像隐藏任务中的三个主要挑战。本文提出了一种基于可逆神经网络(INN)的新型框架HiNet,以同时克服图像隐藏中的这三个挑战。为了实现大容量,我们提出了一种逆向学习机制,同时学习图像隐藏和揭示过程。我们的方法能够将完整大小的秘密图像隐藏到具有相同大小的封面图像中。为了实现高隐形性,我们提出了在小波域中隐藏秘密信息的方法。此外,我们提出了一种新的低频小波损失,以约束秘密信息隐藏在高频小波子带中,从而显著提高隐藏安全性。实验结果表明,我们的HiNet在ImageNet、COCO和DIV2K数据集上在秘密图像恢复方面明显优于其他最先进的图像隐藏方法,PSNR提高了10dB以上。代码可在https://github.com/TomTomTommi/HiNet上获得。01. 引言0图像隐藏的任务是将秘密图像隐藏到封面图像中生成隐秘图像,只允许知情者恢复秘密图像,对其他人来说是不可见的。出于安全考虑,隐秘图像通常要求与封面图像无法区分。与位级消息隐藏或隐写术[2, 20, 35, 36,39-41]不同,图像隐藏更具挑战性,需要大容量、高隐形性和安全性。图像隐藏具有广泛的应用领域,其中秘密通信和隐私保护是最重要的应用之一。与众所周知的图像隐写术相比,0* 两位作者贡献相同。†通讯作者。0(a)传统方法0隐藏网络x secret x stego x rec0x0(b)我们的方法0可逆网络x stego x rec0揭示网络0图1. 我们的图像隐藏方法与传统方法[5, 23,32]之间的差异的示意图。0年龄密码学,图像隐藏具有显着的安全优势,即带有秘密信息的隐秘图像与封面图像无法区分,这使其更适合于秘密通信。此外,与图像密码学不同,图像隐藏更注重隐藏信息的容量和隐形性,而不是鲁棒性。传统的隐写方法只能隐藏少量信息[6, 11, 13, 16, 19,24],无法满足图像隐藏任务中的大容量要求。Baluja[4]提出了第一个用于解决图像隐藏问题的卷积神经网络(CNN)。然后,Weng等人[32]进一步提出了一种通过时间残差建模进行视频隐写的深度网络。然而,所有这些方法都采用了两个子网络进行图像隐藏:一个隐藏网络将秘密图像xsecret隐藏到封面图像中生成隐秘图像xstego,一个揭示网络从x stego中恢复秘密图像xrec,如图1(a)所示。隐藏和揭示网络具有两组参数,通过简单的连接相互关联。这种松散的连接可能会导致颜色失真和纹理复制伪影。此外,它们几乎不考虑安全问题,使隐藏的秘密信息容易被检测到。在本文中,我们提出了一种可逆图像隐藏网络HiNet,其中包括隐藏和揭示过程。47340这些过程共享相同的网络参数,如图1(b)所示。据我们所知,我们的工作是首次尝试在图像隐藏任务中探索可逆网络。其主要创新之处在于,图像的揭示过程被建模为可逆网络结构中隐藏过程的逆过程,这意味着网络只需要训练一次,即可获得用于隐藏和揭示的所有网络参数。这与现有方法(如[5, 23,32])在处理隐藏和揭示过程时独立进行的方法有着根本的区别。因此,我们的HiNet在恢复准确性、隐藏安全性和隐形性方面实现了最先进的性能。本文的主要贡献总结如下:0•我们提出了一种新颖的图像隐藏网络,即HiNet,基于可逆神经网络,用于大容量图像隐藏任务。0•我们设计了两个具有可微和可逆属性的隐藏和揭示模块,旨在使图像隐藏过程完全可逆。0•我们提出了一种低频小波损失函数,用于控制不同频带中秘密信息的分布,从而显著提高了隐藏的安全性。02. 相关工作02.1. 隐写术和图像隐藏0隐写术是将一条消息、音频、图像或视频隐藏到另一条消息中的实践,以不引起任何怀疑。最低有效位(LSB)是最传统的基于空间域的隐写术方法。它通过将原始图像的n个最低有效位替换为秘密图像的n个最高有效位来工作。LSB算法的缺点是在图像的平滑区域经常出现纹理复制伪影,因此隐写分析方法可以轻易检测到通过LSB隐藏的秘密信息的存在。除了LSB,还有许多方法提出在频域中嵌入信息,例如离散傅里叶变换(DFT)域、离散余弦变换(DCT)域和离散小波变换(DWT)域。这些方法比LSB更加鲁棒和难以检测,但只能隐藏位级信息。最近,一些深度学习模型也被用于隐写术,但它们只能隐藏少量数据。图像隐藏是隐写术的一个重要研究方向,它试图将一张完整的图像隐藏到另一张图像中。与前面提到的方法不同,图像隐藏通常需要较大的隐藏容量。Baluja首次提出使用深度神经网络将一张完整的彩色图像隐藏在另一张图像中。为了实现这一目标,他们开发了一个准备网络来提取秘密图像的有用特征,然后使用一个隐藏网络将秘密图像的特征融合到覆盖图像中。最后,他们采用一个揭示网络来恢复原始的秘密图像。Rahim等人在此基础上添加了一个正则化损失来确保联合端到端训练。然而,它们都存在颜色失真的问题。Zhang等人通过减少秘密图像的有效载荷来减轻这种影响,即只嵌入灰度图像。Weng等人进一步将这项技术应用于视频隐写术。前期的研究表明,深度网络在图像隐藏方面具有巨大的潜力。0已经提出了多种用于隐写术的网络,其性能优于传统方法。具体而言,Zhu等人首次提出了一种基于自动编码器的网络,实现了水印嵌入和提取。在此基础上,Ahmadi等人引入了残差连接和基于CNN的变换操作模块,可以在任何变换空间中嵌入水印。Tancik等人提出了一种名为StegaStamp的框架,可以将超链接隐藏在一张实际的照片中,并成功地提取出来。0解码后。Luo等人通过使用生成器替换一组固定的失真来增强网络对未知失真的鲁棒性。Zhang等人使用生成对抗网络(GAN)来优化隐写图像的感知质量。这些方法通常具有良好的隐藏安全性,即秘密信息不太可能被隐写分析工具检测到,但它们只能隐藏少量数据。图像隐藏是隐写术的一个重要研究方向,它试图将一张完整的图像隐藏到另一张图像中。与前面提到的方法不同,它通常需要较大的隐藏容量。Baluja首次提出使用深度神经网络将一张完整的彩色图像隐藏在另一张图像中。为了实现这一目标,他们开发了一个准备网络来提取秘密图像的有用特征,然后使用一个隐藏网络将秘密图像的特征融合到覆盖图像中。最后,他们采用一个揭示网络来恢复原始的秘密图像。Rahim等人在此基础上添加了一个正则化损失来确保联合端到端训练。然而,它们都存在颜色失真的问题。Zhang等人通过减少秘密图像的有效载荷来减轻这种影响,即只嵌入灰度图像。Weng等人进一步将这项技术应用于视频隐写术。前期的研究表明,深度网络在图像隐藏方面具有巨大的潜力。02.2. 可逆神经网络0可逆神经网络(INN)最早由Dinh等人[9]提出。给定一个变量y和前向计算x = fθ(y),可以通过y =f-1θ(x)直接恢复y,其中逆函数f-1θ与fθ共享相同的参数θ。为了使INN更好地处理与图像相关的任务,Dinh等人[10]在耦合模型中引入了卷积层,并引入了多尺度层以减少计算成本和增加正则化能力。Kingma等人[15]在INN中引入了可逆的1×1卷积,并提出了Glow,该方法在逼真的合成和图像处理方面效率高。由于其出色的性能,INN已被应用于许多与图像相关的任务。具体而言,Ouderaa等人[28]将INN应用于图像到图像的转换任务。Ardizzone等人[3]引入了条件INN来引导图像生成和上色,其中逆过程由条件参数引导。Xiao等人[33]尝试使用INN在低分辨率图像和高分辨率图像之间找到映射,用于图像缩放。Lugmayr等人[18]通过INN提出了一种基于正则化流的超分辨率方法,该方法试图直接解决超分辨率的不适定性,并学习预测多样的逼真高分辨率图像。最近,Wang等人[30]将INN应用于数字图像压缩任务。然而,据我们所知,还没有相关的工作来Stego image(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)(B,4C,W/2,H/2)47350秘0(B,C,W,H)丢失的信息r0前向隐藏过程0恢复的秘密图像0隐秘图像0辅助变量z0DWT0藏块 i 隐藏块 i + 10揭示块 i + 1 揭示块 i0覆盖图像0DWT0IWT0IWT0IWT0DWT0DWT0Φ-模块 ρ-模块0η-模块0exp( - ( ∙ ) )0Φ-模块 ρ-模块0η-模块0exp( - ( ∙ ) )0Φ-模块 ρ-模块0η-模块0exp( - ( ∙ ) )0Φ-模块 ρ-模块0η-模块0exp( - ( ∙ ) )0反向揭示过程0(B,C,W,H)恢复的覆盖图像0i时的覆盖图像x0i时的秘密图像x0i -1时的z0i时的z0IWT i x stego i = 1 stego x0i =1时的覆盖图像x0相同的参数0特征图:通过秘密图像进行前向卷积0特征图:通过覆盖图像进行前向卷积 特征图:通过隐秘图像进行反向卷积0特征图:通过辅助变量z进行反向卷积0除法0加法0减法0乘法0图2.HiNet的框架。在前向隐藏过程中,通过多个隐藏块将秘密图像隐藏在覆盖图像中,生成一个隐秘图像和丢失的信息。在反向揭示过程中,将隐秘图像和来自高斯分布的辅助变量z输入到一系列揭示块中,以恢复秘密图像。请注意,在我们的HiNet中,揭示是隐藏的逆过程,因此它们共享相同的网络参数。0探索图像隐藏任务中的INN。03. 方法0在本节中,我们提出了一种新颖的可逆隐藏-揭示网络HiNet,以实现具有大容量、高安全性和高隐蔽性的图像隐藏。表1介绍了本文中使用的符号。0表1. 本文符号总结0符号说明0x_secret:秘密图像,需要隐藏的图像;x_cover:覆盖图像,用于隐藏秘密信息的图像;x_stego:隐秘图像,包含秘密信息的图像;x_rec:恢复图像,从隐秘图像中恢复的秘密图像;r:丢失信息,隐藏过程中丢失的信息;z:辅助变量,用于恢复隐秘图像的变量。03.1. 网络架构0图2显示了所提出的HiNet的整体框架。在正向隐藏过程中,一对秘密图像x_secret和覆盖图像x_cover被接受为输入。它们0首先通过离散小波变换(DWT)将输入图像分解为低频和高频小波子带,然后将其输入到一系列隐藏块中。最后一个隐藏块的输出通过逆小波变换(IWT)块生成隐秘图像x_stego,同时生成丢失信息r。在反向揭示过程中,隐秘图像x_stego和辅助变量z通过DWT和一系列揭示块进行处理,以恢复秘密图像x_secret。0小波域隐藏。在像素域中隐藏图像很容易导致纹理复制伪影和颜色失真[11,32]。与像素域相比,频域,特别是高频域,更适合图像隐藏。本文采用DWT将图像分成低频和高频小波子带,然后进入可逆块,以便网络能够更好地将秘密信息融合到覆盖图像中。此外,小波变换的完美重构性质[21]可以帮助减少信息损失并提高图像隐藏性能。经过DWT后,大小为(B,C,H,W)的特征图被转换为(B,4C,H/2,W/2),其中B是批量大小,H是高度,W是宽度,C是通道数。47360如图2所示,隐藏和揭示块具有相同的子模块和相同的网络参数,但信息流方向相反。具有相同结构的M个隐藏块,构造如下。对于正向过程中的第i个隐藏块,输入为x_i cover和x_isecret,输出x_i+1 cover和x_i+1 secret的计算如下,0x_i+1 cover = x_i cover +0在公式(1)中,x_i+1 secret = x_i secret ⊙exp(α(ρ(x_i+1 cover))) + η(x_i+1 cover)。0其中α是一个sigmoid函数乘以一个常数因子作为夹紧,⊙表示点积运算。这里,ρ(∙)、φ(∙)和η(∙)是任意函数,我们采用[29]中广泛使用的稠密块来表示它们,因为它具有良好的表示能力。在最后一个隐藏块之后,我们可以得到输出x_M+1cover和x_M+1secret,然后将它们输入到两个IWT块中生成隐秘图像x_stego和丢失信息r。在揭示过程中,信息流方向是从第(i+1)个揭示块到第i个揭示块,与隐藏过程相反,如图2所示。具体来说,对于第M个揭示块,输入是由隐秘图像x_stego和辅助变量z通过DWT生成的x_M+1stego和z_M+1。这里,z是从高斯分布中随机采样的。第M个揭示块的输出是x_Mstego和z_M。对于第i个揭示块,输入是x_i+1stego和z_i+1,输出是x_istego和z_i。它们之间的关系建模如下,0zi = zi+1 - ηxi+1 stego ⊙ exp(-α(ρxi+1 stego))0xi stego = xi+1 stego - φzi. (2)0在最后一个揭示块(即揭示块1)之后,输出x 1 stego被送入IWT块以生成恢复图像xrec。丢失的信息r和辅助变量z。丢失的信息r是正向隐藏过程中的输出之一,z是反向揭示过程的输入之一。在隐藏过程中,网络试图将秘密图像隐藏到容器图像中。然而,很难在容器图像中隐藏如此大的容量,这必然导致秘密信息的丢失。此外,秘密图像的插入可能破坏容器图像中的原始信息。丢失的秘密信息和破坏的容器信息构成了丢失的信息r。在这里,由于以下原因,假设r是与大小写无关的。假设数据集中所有图像的分布为X。正向过程中的输入x cover和xsecret是从同一数据集中采样的,因此遵循相同的分布:x cover,xsecret�X。由于Eqs.(1)和(2)的严格等价性以及INN的可逆约束,输出xstego和r的混合分布应遵循与输入相同的分布,即x stego×r�X。对于隐写图像xstego,第3.2节中的隐藏损失将其分布推向与容器图像匹配,即xstego�X。因此,合理地假设剩余的r是与大小写无关的。在反向揭示中,要求从仅具有xstego而没有对r的访问的情况下提取恢复图像x rec。这实际上是一个不适定问题,因为可以从相同的xstego中恢复出数百万个x rec。为了获得准确的xrec,反向揭示过程中采用了辅助变量z。变量z是从与r假设遵循相同分布的与大小写无关的分布中随机采样的。通过第3.2节中的揭示损失在训练过程中学习分布,确保分布中的每个样本都能很好地恢复秘密信息。在这里,不失一般性,我们假设分布为高斯分布,即z�N(μ0,σ20)。为什么INN适用于图像隐藏?图像隐藏任务由两个相反的过程组成:隐藏过程旨在将秘密图像x secret隐藏在容器图像x cover中,生成一个称为隐写图像xstego的新容器;而揭示过程则试图尽可能高保真地从隐写图像中恢复秘密图像。在以前的工作中[5,23,32],隐藏和揭示过程是由两个前向网络依次实现的,即一个用于隐藏,另一个用于揭示。然而,为了实现完美的隐藏和揭示性能,这两个过程应该是完全可逆的。基于此,我们创新地将图像隐藏和揭示视为相同INN的正向和反向过程,即它们是可逆的。因此,它们可以相互协调,同时提高隐藏和揭示性能。正如实验证明的那样,我们的INN架构网络显著提升了最先进的图像隐藏性能。0在容器图像中丢失的秘密信息和破坏的容器信息构成了丢失的信息r。在这里,由于以下原因,假设r是与大小写无关的。假设数据集中所有图像的分布为X。正向过程中的输入xcover和xsecret是从同一数据集中采样的,因此遵循相同的分布:xcover,xsecret�X。由于Eqs.(1)和(2)的严格等价性以及INN的可逆约束,输出xstego和r的混合分布应遵循与输入相同的分布,即xstego×r�X。对于隐写图像xstego,第3.2节中的隐藏损失将其分布推向与容器图像匹配,即xstego�X。因此,合理地假设剩余的r是与大小写无关的。在反向揭示中,要求从仅具有xstego而没有对r的访问的情况下提取恢复图像xrec。这实际上是一个不适定问题,因为可以从相同的xstego中恢复出数百万个x rec。为了获得准确的xrec,反向揭示过程中采用了辅助变量z。变量z是从与r假设遵循相同分布的与大小写无关的分布中随机采样的。通过第3.2节中的揭示损失在训练过程中学习分布,确保分布中的每个样本都能很好地恢复秘密信息。在这里,不失一般性,我们假设分布为高斯分布,即z�N(μ0,σ20)。为什么INN适用于图像隐藏?图像隐藏任务由两个相反的过程组成:隐藏过程旨在将秘密图像x secret隐藏在容器图像xcover中,生成一个称为隐写图像xstego的新容器;而揭示过程则试图尽可能高保真地从隐写图像中恢复秘密图像。在以前的工作中[5,23,32],隐藏和揭示过程是由两个前向网络依次实现的,即一个用于隐藏,另一个用于揭示。然而,为了实现完美的隐藏和揭示性能,这两个过程应该是完全可逆的。基于此,我们创新地将图像隐藏和揭示视为相同INN的正向和反向过程,即它们是可逆的。因此,它们可以相互协调,同时提高隐藏和揭示性能。正如实验证明的那样,我们的INN架构网络显著提升了最先进的图像隐藏性能。03.2. 损失函数0总损失函数由三个不同的损失组成:隐藏损失用于保证隐藏性能,揭示损失用于确保恢复性能,以及新的低频小波损失用于增强隐藏安全性。隐藏损失。正向隐藏过程旨在Lcon(θ) =NℓCx(n)cover , x(n)stego,(3)Lrev(θ) =NEz∼p(z)[ℓRx(n)secret, x(n)rec],(4)Lfreq(θ) =N�n=1ℓF�H(x(n)cover)LL, H(x(n)stego)LL�.(5)Ltotal = λcLcon + λrLrev + λfLfreq.(6)47370将秘密信息x secret隐藏到容器图像xcover中,生成隐写图像xstego。隐写图像需要与容器图像无法区分。为了实现这个目标,定义了隐藏损失L con,如下所示,0其中 x ( n ) stego 等于 f θ � ( x ( n ) cover , x ( n ) secret) � ,其中 θ 表示网络参数。此外, N是训练样本的数量, ℓ C衡量封面和隐写图像之间的差异,可以是 ℓ 1 或 ℓ 2范数。揭示损失。在反向揭示过程中,给定由前向隐藏过程生成的隐写图像 x stego ,网络应该能够使用来自高斯分布p ( z ) 的任何样本 z来恢复秘密图像。为了实现这个目标,我们定义揭示损失 Lrev 如下,0其中恢复图像 x ( n ) rec 等于 f − 1 θ � x ( n ) stego , z � ,0其中 f − 1 θ ( ∙ ) 表示反向揭示过程。类似于 ℓ C , ℓ R衡量恢复的秘密图像 x rec 与真实秘密图像 x secret之间的差异。低频小波损失。除了上述两个损失之外,我们提出了一个低频小波损失 L freq,以增强网络的抗隐写分析能力。这个损失的动机来自于[4],它验证了高频分量中隐藏的信息比低频分量中的信息更不容易被检测到。在这里,为了确保大部分信息都隐藏在高频子带中,要求隐写图像的低频子带在小波分解后与封面图像的低频子带相似。假设 H ( ∙ ) LL表示小波分解后提取低频子带的操作,低频小波损失 L freq定义如下,0其中, ℓ F衡量封面和隐写图像的低频子带之间的差异。总损失函数。总损失函数 L total 是隐藏损失 L con ,揭示损失 L rev和低频小波损失 L freq 的加权和,如下所示,0其中, λ c , λ r 和 λ f是平衡不同损失项的权重。在训练过程中,我们首先通过最小化 Lcon 和 L rev 进行网络的预训练,即将 λ f设置为0。然后,我们添加 L freq 来以端到端的方式训练网络。04. 实验04.1. 实验设置0数据集和设置。我们使用DIV2K[1]训练数据集来训练我们的HiNet。测试数据集包括DIV2K[1]测试数据集,分辨率为1024×1024,共100张图像,ImageNet[25],分辨率为256×256,共50000张图像,以及COCO[17]数据集,分辨率为256×256,共5000张图像。注意,测试图像使用中心裁剪策略进行裁剪,以确保封面图像和秘密图像具有相同的分辨率。隐藏和揭示块的数量M设置为16。训练补丁大小为256×256,总迭代次数为80K。参数λc,λr和λf分别设置为10.0,1.0,10.0。小批量大小设置为16,其中一半随机选择为封面补丁,其余为秘密补丁。采用标准参数和初始学习率为1×10-4.5的Adam[14]优化器。基准。为了验证我们方法的有效性,我们将其与几种最先进的图像隐藏方法进行比较,包括一种名为4bit-LSB的传统图像隐写术方法,以及三种基于深度学习的方法:HiDDeN [41],Weng等人[32]和Baluja[5]。为了公平比较,我们重新训练了Weng等人[32],Baluja [5]和HiDDeN[41]的模型,使用与我们相同的训练数据集。注意,原始的HiDDeN[41]模型只能隐藏消息,与本文中的图像隐藏配置不一致。为了使其能够隐藏图像,我们稍微修改了其输出维度,然后重新训练了网络。评估指标。采用四个指标来衡量封面/隐写和秘密/恢复对的质量,包括峰值信噪比(PSNR),结构相似性指数(SSIM)[31],均方根误差(RMSE)和平均绝对误差(MAE)。PSNR、SSIM的值越大,RMSE、MAE的值越小,表示图像质量越高。此外,我们使用名为StegExpose[7]和SRNet[8]的统计隐写分析工具来评估我们方法的安全性能。04.2. 与SOTA方法的比较0定量结果。表2比较了我们的HiNet与4bit-LSB、HiDDeN[41]、Weng等人[32]和Baluja[5]在DIV2K、COCO和ImageNet数据集上的数值结果。从表2可以看出,我们的HiNet在封面/隐写和秘密/恢复对的四个指标上明显优于其他方法。具体而言,对于封面/隐写图像对,我们的HiNet在DIV2K、COCO和ImageNet数据集上的PSNR分别比第二好的结果提高了9.24 dB、7.63dB和6.98dB。对于秘密/恢复图像对,我们的HiNet在DIV2K、COCO和DIV2KCOCOImageNetPSNR(dB)SSIMMAERMSEPSNR(dB)SSIMMAERMSEPSNR(dB)SSIMMAERMSE↓DIV2KCOCOImageNetPSNR(dB)SSIMMAERMSEPSNR(dB)SSIMMAERMSEPSNR(dB)SSIMMAERMSE↓GT(37.80/0.9702)(38.88/0.9795)(47.63/0.9960)(52.49/0.9994)(31.84/0.9174)(38.10/0.9174)(24.86/0.9114)(36.02/0.9850)(35.79/0.9377)(36.31/0.9603)(PSNR/SSIM)(PSNR/SSIM)47380表2. 在不同数据集上的基准比较,最佳结果为红色,第二好的结果为蓝色。0方法0封面/隐写图像对04bit-LSB 33.19 0.9453 6.90 7.95 33.79 0.9479 7.31 9.12 33.68 0.9401 6.46 8.48 HiDDeN [41] 35.21 0.9691 6.98 6.82 36.71 0.9876 6.58 8.73 34.79 0.9380 6.127.33 Weng等人[32] 39.75 0.9765 3.24 4.85 38.89 0.9762 3.99 5.91 37.62 0.9588 4.70 5.250Baluja [5] 36.77 0.9645 3.79 5.02 36.38 0.9563 5.98 7.43 36.59 0.9520 5.61 5.41 HiNet 48.99 0.9971 1.33 1.94 46.52 0.9961 1.87 2.92 44.60 0.9928 2.52 3.620算法0秘密/恢复图像对04bit-LSB 30.81 0.9020 8.96 8.01 32.04 0.9127 7.61 9.59 31.26 0.9033 7.71 9.76 HiDDeN [41] 36.43 0.9696 6.02 5.50 37.68 0.9845 4.72 6.33 35.70 0.9601 4.576.92 Weng等人[32] 38.93 0.9683 3.95 5.16 38.69 0.9756 4.06 5.95 36.48 0.9537 4.98 6.280Baluja [5] 35.88 0.9377 4.68 6.11 35.01 0.9341 6.52 8.00 34.13 0.9247 5.31 8.37 HiNet 52.86 0.9992 0.56 0.86 46.98 0.9957 1.60 2.66 46.78 0.9952 1.94 2.7404bit-LSB Baluja 我们 Weng等人0封面图像0秘密图像0|封面 - 隐写 | �10:0| 秘密 - 恢复 | � 10:0图3. 我们的HiNet和比较方法4bit-LSB、HiDDeN [41]、Baluja[5]和Weng等人[32]的隐写和恢复图像的视觉比较。上面三行显示了放大的隐写图像,而下面三行显示了不同方法的放大的恢复图像。0分别是COCO和ImageNet数据集。除了PSNR外,SSIM、RMSE和MAE也显示出类似的改进。由于我们的HiNet架构的可逆性和可以大大提高隐藏性能的小波变换,我们的结果比基于深度学习的SOTA方法要好得多。0定性结果。图3比较了我们的HiNet和其他四种方法的隐写和恢复图像。可以看出,在我们的方法中,封面和隐写图像之间的差异几乎是不可见的,表明我们能够成功地将秘密图像隐藏在封面图像中。此外,我们的方法几乎可以完美地恢复秘密图像。47390图像,即恢复图像与地面真实秘密图像之间的残差图几乎全部为黑色。相比之下,4bit-LSB、HiDDeN [41]和Baluja[5]的隐写图像在平滑区域尤其存在明显的纹理复制伪影。此外,它们的恢复图像通常存在不可取的颜色偏差问题,其中Weng等人[32]还显示出明显的模糊伪影。与这些方法相比,我们的HiNet不仅提供了高恢复准确性,而且在隐写和恢复中都没有纹理复制伪影,同时享有高色彩保真度。泛化能力。虽然我们的模型只使用DIV2K数据集进行训练,但在COCO和ImageNet数据集上也取得了出色的结果,如表2所示。这证明了我们模型的良好泛化能力,在实际应用中具有重要意义。04.3.隐写分析0隐写分析测量隐写图像的安全性,这是图像隐藏任务中的重要评估部分。具体而言,隐写分析通过隐写分析工具[22]来衡量区分隐写图像和覆盖图像的可能性。主流的隐写分析方法可以分为两类:传统的统计方法和基于深度学习的新方法。0图4.由StegExpose生成的我们的HiNet的ROC曲线。0统计隐写分析。我们按照[5]的方法使用一个名为StegExpose[7]的开源隐写分析工具来衡量我们模型的抗隐写分析能力。具体而言,我们从测试集中随机选择了2000个覆盖图像和秘密图像,并使用我们的HiNet生成了隐写图像。然后,我们使用我们的HiNet从隐写图像中恢复出秘密图像。为了绘制接收器操作特性(ROC)曲线,我们在StegExpose[7]中在一个广泛的范围内变化检测阈值。图4显示了我们的HiNet的ROC曲线。我们可以看到ROC曲线下的面积(AUC)值为0.5019,表明检测准确率与随机猜测非常接近。这表明我们模型生成的隐写图像具有很高的安全性,能够以很高的概率欺骗StegExpose工具。0表3.使用SRNet的检测准确率0方法 准确率(%) ± 标准差04位LSB 99.96 ± 0.06 Baluja [5]99.67 ± 0.01 HiDDeN [41] 76.49± 0.11 翁等人[32] 75.03 ± 0.59HiNet 55.86 ± 0.270基于深度学习的隐写分析。SRNet[8]是一种用于图像隐写分析的网络,用于区分隐写图像和覆盖图像。表3展示了使用SRNet对不同图像隐藏方法的检测准确率。在这里,检测准确率越接近50%(随机猜测),图像隐藏算法的性能越好。可以看出,我们的HiNet的检测准确率达到了55.86%,这显著优于其他SOTA方法[5, 32,41]。由于55.86%接近50%,我们的方法的隐写图像几乎无法从覆盖图像中检测出来。0图5.不同方法的抗隐写分析能力的研究。注意,准确率越接近50%,抗隐写分析能力越高。0除了上述的隐写分析方法外,翁等人[32]提出了一种新的图像隐写分析方法。具体而言,SRNet是通过使用由特定模型生成的不同数量的覆盖/隐写图像对重新训练,以研究需要多少训练图像使SRNet能够检测到隐写图像。按照[32]的方法,我们逐渐增加训练图像的数量来重新训练SRNet。图5显示了随着训练图像数量的变化,检测准确率的变化情况。从该图中可以看出,与其他方法相比,我们的HiNet的检测准确率要低得多,这表明了我们方法的更高的抗隐写分析能力。04.4.消融研究0小波变换的有效性。如表所示04,小波变换在改进我们方法的性能方面起着重要作用。具体而言,如表4的第一行和第二行所示,小波变换的PSNR值分别增加了3.52 dB和4.30dB,用于覆盖/隐写和秘密图像/恢复对。可能的原因是小波变换可以成功地分离低频和高频子带,使其对信息隐藏更加有效。��44.230.99182.513.6848.520.99731.322.1975.42��46.520.99611.872.9246.980.99571.602.6655.86λfreq47400表4.小波变换和低频小波损失的有效性。第三行代表我们的HiNet。0小波L频覆盖/隐写图像对秘密/恢复图像对检测率(%)变换损失PSNR(dB)↑ SSIM(结构相似性指数)↑ MAE(平均绝对误差)↓RMSE(均方根误差)↓ PSNR(dB)↑ SSIM(结构相似性指数)↑ MAE(平均绝对误差)↓ RMSE(均方根误差)↓0如表4的第一行和第二行所示,覆盖/隐写和秘密图像/恢复对的小波变换的PSNR值分别增加了3.52 dB和4.30dB。可能的原因是小波变换可以成功地分离低频和高频子带,使其对信息隐藏更加有效。0图6. 对 L freq 损失进行消融研究. 使用不同的 λ freq值进行训练,其他参数保持不变.0L freq 损失的有效性. L freq损失的设计是为了确保大部分秘密信息被隐藏在载体图像的高频子带中,从而使得隐写图像的可检测性更低。如表4的第二行和第三行所示,L freq显著提高了我们方法的安全性,即检测率从 75 . 42%降低到 55 . 86% . 此外,使用 L freq,载体/隐写图像对的平均峰值信噪比(PSNR)提高了2.29dB. 图6显示了不同 λ freq 对我们方法性能的影响.可以看出,当 λ freq = 10 1时,可以获得PSNR、SSIM和检测率之间的最佳平衡. ρ ( ∙ ), φ ( ∙ ) 和 η ( ∙ ) 架构的影响. 图70通过小提琴图可视化不同 ρ ( ∙ ) , φ ( ∙ ) 和 η ( ∙ )架构对我们方法性能的影响.小提琴图可视化了PSNR值的分布和概率密度(蓝色区域).顶部、中部和底部线分别表示最大、平均和最小的PSNR值.在这里,我们采用了三种典型的块架构,包括卷积、残差和0图7. 通过小提琴图可视化不同 ρ ( ∙ ) , φ ( ∙ ) 和 η ( ∙ ) 架构的影响.0稠密块,以分析不同结构对性能的影响.为了公平比较,这三个块被构造为包含相同数量的参数.从这个图中可以看出,稠密块产生了最好的PSNR结果,这也是为什么我们在本文中采用它作为 ρ ( ∙ ) , φ ( ∙ ) 和 η ( ∙) 的原因.05. 结论0本文提出了一种名为 HiNet的新型可逆神经网络,用于图像隐藏,极大地提高了隐藏安全性和恢复准确性. 我们的 HiNet将图像隐藏和恢复建模为可逆网络的正向和反向过程,这意味着它们共享相同的网络参数.因此,网络只需要训练一次,即可获得图像隐藏和恢复过程的所有网络参数.在网络训练中,我们提出了一种新的低频小波损失,以提高图像隐藏的安全性.大量的实验结果表明,我们的方法可以实现具有大容量和高安全性的图像隐藏,从定量和定性上显著优于其他方法.致谢. 本工作由CAAI-HuaweiMindspore开放基金、国家自然科学基金委员会(NSFC)资助(项目号62050175、62001016、61876013和61922009)以及北京市自然科学基金(项目号JQ20020)资助.47410参考文献0[1] Eirikur Agustsson 和 Radu Timofte. Ntire2017单幅图像超分辨率挑战: 数据集和研究.《计算机视觉与模式识别会议论文集》, 2017, 126–135页. 50[2] Mahdi Ahmadi, Alireza Norouzi, Nader Karimi, ShadrokhSamavi, 和 Ali Emami. Redmark:基于深度网络的残差扩散水印嵌入框架. 《专家系统与应用》,2020, 146:113157页. 1 , 20[3] Lynton Ardizzone, Carsten L ¨ uth, Jakob Kruse, CarstenRother, 和 Ullrich K ¨ othe. 带条件可逆神经网络的引导图像生成.《arXiv预印本》, 2019, arXiv:1907.02392. 20[4] Shumeet Baluja. 隐形图像: 深度隐写术.《神经信息处理系统进展》, 2017, 2069–2079页. 1 , 2 , 50[5] Shumeet Baluja. 图像隐藏.《IEEE模式分析与机器智能交易》, 2019, PP:1–1. 1 , 2 , 4 , 5 ,6 , 70[6] Mauro Barni,Franco Bartolini和AlessandroPiva。通过像素掩码改进的基于小波的水印。IEEE图像处理交易,10(5):783–791,2001年。1,20[7] Benedikt Boehm。Stegexpose -一种检测LSB隐写术的工具。CoRR,abs/1410.6656,2014年。5,70[8] Mehdi Boroumand,Mo Chen和JessicaFridrich。用于数字图像隐写术的深度残差网络。IEEE信息取证与安全交易,14(5):1181–1193,2018年。5,70[9] Laurent Dinh,David Krueger和YoshuaBengio。NICE:非线性独立分量估计。arXiv预印本arXiv:1410.8516,2014年。20[10] Laurent Dinh,Jascha Sohl-Dickstein和SamyBengio。使用真实NVP进行密度估计。在第5届国
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- C++标准程序库:权威指南
- Java解惑:奇数判断误区与改进方法
- C++编程必读:20种设计模式详解与实战
- LM3S8962微控制器数据手册
- 51单片机C语言实战教程:从入门到精通
- Spring3.0权威指南:JavaEE6实战
- Win32多线程程序设计详解
- Lucene2.9.1开发全攻略:从环境配置到索引创建
- 内存虚拟硬盘技术:提升电脑速度的秘密武器
- Java操作数据库:保存与显示图片到数据库及页面
- ISO14001:2004环境管理体系要求详解
- ShopExV4.8二次开发详解
- 企业形象与产品推广一站式网站建设技术方案揭秘
- Shopex二次开发:触发器与控制器重定向技术详解
- FPGA开发实战指南:创新设计与进阶技巧
- ShopExV4.8二次开发入门:解决升级问题与功能扩展
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功