没有合适的资源?快使用搜索试试~ 我知道了~
10071基于时空能量压缩的学习图像和视频压缩郑学成、孙鹤明、竹内胜、加藤次郎日本东京早稻田大学计算机科学与通信工程系{zxcheng@asagi.,hemingsun@aoni.,masaru-t@aoni.,katto @} waseda.jp摘要压缩是一个重要的研究课题,对数据传输和存储产生了重大影响。最近的进展显示了学习图像和视频压缩的巨大潜力。受相关工作的启发,本文提出了一种基于卷积自动编码器的图像压缩体系结构,并通过在编码端和解码端增加插值环,将图像压缩推广到我们的基本思想是在学习图像和视频压缩中实现时空能量压缩。因此,我们建议在损失函数中加入一个基于空间能量补偿的惩罚函数,以达到更高的图像压缩性能。此外,基于时间能量分布,我们提出了一个插值循环中的帧的数目的选择,适应视频内容的运动特性。实验结果表明,我们提出的图像压缩优于最新的图像压缩标准与MS-SSIM质量度量,并提供更高的性能相比,最先进的学习压缩方法在高比特率,这得益于我们的空间能量压缩方法。同时,我们提出的时间能量压缩的视频压缩方法可以显着优于MPEG-4和常用的H.264的竞争力。我们的图像和视频压缩都可以产生比传统标准更令人愉悦的视觉1. 介绍几十年来,数据压缩一直是信号处理领域的一个重要研究课题在图像压缩编解码器方面,现有的图像压缩标准(诸如JPEG [1]、JPEG 2000 [2]和使用帧内编码HEVC [3]的BPG)依赖于手工制作的编码器-解码器流水线。这些图像格式广泛用于各种图像应用中。常规(a) 从柯达数据集重建图像(b) 重建帧akiyo cif从dataset。图1:我们的方法和常用图像/视频压缩标准的可视化结果在相同的位bugets,我们的方法产生更多的视觉效果比传统的标准。包括H.261、MPEG-4第2部分、常用标准H.264/AVC[4]、最新标准HEVC/H.265 [3]的视频编码算法也通过几十年的努力取得了令人印象深刻的性能。然而,随着高分辨率图像和视频的激增,以及新的图像/视频格式的发展,现有的标准不被期望成为所有类型的内容的最佳压缩解决方案。最近,深度学习已成功应用于压缩任务。学习压缩有几个潜在的优势,以提高图像和视频压缩的性能。首先,传统压缩标准中的编码器-解码器流水线类似于自动编码器来学习高级表示。虽然10072自动编码器基本上应用于维数缩减任务[5],它们能够实现更好的压缩性能。最新的基于学习的压缩方法,包括递归神经网络[8,9,10],卷积神经网络[11,12,13,14,15,16,17]和生成对抗网络[18,19,20]都采用了自动编码器架构。其次,通过使用基于学习的视频预测、生成和插值方法,可以直观地减少视频压缩的时间冗余。文献[21,22]通过使用预测或插值神经网络已经取得了有希望的结果.基于学习的压缩的最后一个优点是,尽管传统编解码器的开发和标准化在历史上已经进行了几年,但基于深度学习的压缩方法可以更快地适应,因为自动编码器架构中的所有参数都可以以自动和无监督的方式学习因此,学习压缩有望变得更通用和更有效。然而,仍有一些问题有待解决。一般来说,图像压缩利用空间分布,视频压缩利用时间分布来学习高级特征。根据传统的数字编码理论,良好的时空能量压缩对于高编码效率是重要的[25]。以往的研究多采用率失真优化的方法,但很少有研究分析时空能量的压缩性。本文提出了一种基于差分量化和熵估计的卷积自编码器结构因此,我们建议在损失函数中加入一个基于能量补偿的惩罚函数,以达到更高的图像压缩性能。此外,我们还将图像压缩推广到视频压缩,在图像编码器中加入了一个插值环,并提出了通过分析时间能量分布来自适应地选择一个插值环中的帧数我们将我们的图像压缩与最先进的图像标准和最近的学习方法进行比较。与最新的图像压缩标准BPG相比,我们的方法实现了显着更好的MS-SSIM,并在高比特率下优于最先进的学习压缩方法。另一方面,我们的视频压缩是有竞争力的H.264与MS-SSIM和产生更多的视觉上令人愉悦的重建视频。2. 相关工作现有的图像压缩标准,如JPEG [1],JPEG2000 [2]和BPG,使用帧内编码的HEVC [3],分别回复手工制作的模块设计。具体地,这些模块包括帧内预测、离散余弦变换或小波变换、量化和熵编码器,诸如霍 夫 曼 编 码 器 或 内 容 自 适 应 二 进 制 算 术 编 码 器(CABAC)。他们设计了具有多种模式的每个模块,并进行率失真优化以确定最佳模式。在下一代压缩算法的开发过程中,已经提出了一些混合方法来提高性能,通过利用传统压缩算法和最新的机器学习方法,例如[6,7]。现有技术的视频压缩算法,例如HEVC/H.265 [3]、H.264 [4]、MPEG-4第2部分,将帧间预测并入编码器架构中。帧间预测利用相邻帧间的时间相似性对于参考帧的顺序,H. 264和HEVC/H. 265都支持两种配置,即低延迟P和随机访问。低延迟P仅使用先前帧作为单向参考,而随机接入允许以分级方式进行双向参考。随机接入可以实现比低延迟P更高的编码效率。帧间预测的关键技术是利用块匹配和运动补偿进行整数和分数运动学习压缩最近,端到端图像压缩引起了极大的关注。一些方法提出使用递归神经网络(RNN)来编码原始图像和在几次迭代中重建图像,例如通过均方误差(MSE)优化的工作[8,9]或通过MS-SSIM [30]优化的工作[10]。在[18,19,20]中提出了一些基于生成对抗网络(GAN)的技术,用于极低比特率下的其他值得注意的方法包括用于端到端训练的基于轮的量化的可微近似然而,学习视频压缩还没有得到很大程度的利用。只有一些相关的工作[21][22]已经提出。Wu等人 [21]首先提出使用图像插值网络来预测除关键帧之外的帧。 Chen等人[22]依赖于传统的基于块的架构,使用CNN网络进行预测和残差信号。人们非常希望进一步开发学习视频压缩算法3. 该方法我们提出的学习图像和视频压缩如图所示。图像压缩模型用于视频压缩架构中的帧。3.1. 学习图像压缩给定图像,压缩系统可以被认为是编码器侧的分析变换f,并且 - 在解码器侧的合成变换g,如100732N2N(a) 学习图像压缩(b)学习视频压缩图2:我们提出的具有时空能量压缩的学习图像和视频压缩概述图2(a)、y=fθ(x)单位,并且最后一层中的卷积滤波器的数量是K,则压缩数据y将具有xφ=gφ(一)(y)H×W×K。在实践中,n=3,K=48,H和W是其中,x、x′、y和y′分别是原始图像、重构图像、量化之前的θ和φ分别是分析和综合变换中的优化参数为了获得高级特征,可以将分析和合成变换组成一系列连续的下(上)采样操作,其可以通过步长为2的卷积或转置卷积滤波器来实现。我们的网络架构主要参考[12]中的自动编码器,但根据[24],指出通过首先卷积图像然后上采样,而不是首先上采样然后卷积,可以更有效地实现超分辨率。因此,我们使用2个卷积滤波器作为一个下(上)采样单元,网络架构如图所示3.第三章。假设我们有n个下采样图3:分析和合成变换的网络架构,其中“k3 n128-s2”表示内核大小为3的卷积层,128个通道和步幅为2。T-conv表示转置卷积层。128、由于内存限制基于传统编解码器中的率失真成本函数,损失函数定义如下:J(θ,φ;x)=λD(x,x<$)+R(y<$)(2)其中λ控制速率和失真之间的折衷。D表示原始图像x和重构图像x之间的失真;R表示对量化压缩数据y进行编码所需的比特。3.1.1量化和熵估计在图2(a)中,Q表示量化,AE和AD分别表示算术编码器和算术解码器。在传统的编解码器中,通过使用舍入函数(表示为Q[·])来实现量化,并且其在ive处的deriv除了在整数处之外几乎为零因此不能直接并入基于梯度的优化过程。已经提出了几种量化近似,例如均匀噪声近似[12]和软矢量量化[14]。近似量化的y_i在图1中示出。其中软矢量量化具有成形参数σ,并且高σ导致准确的结果,低σ有利于平滑梯度传播。在其他研究[11][15]中,仅在反向传播中替换了推导,但在正向传播中保证了量化值的正确性。通过实验发现,不同的量化方法对压缩性能的影响很小为了简单起见,我们使用加性均匀噪声近似。根据香农理论[34],该速率由离散概率分布的熵下界,10074xRRQ通过构造多个伪压缩数据ck,其第k个信道全为-1,其它信道全为-0。通过将这些ck作为yk单独地馈送到given预训练的合成变换中,我们堆叠σ2以形成Bk。Ak和Bk的维数都是K×1。基于等式(4)最优比特分配公式为编[26]。在恒定速率约束下,最小化重构误差由下式给出:图4:不同量化方法的性能。最小{σ2}KY−1我(Ak Bk)(5)量化码的量化,如下:详细的证据可以参考[26]。如果QK−1(A B)Ik KR=E[−log2(py(y))](3)伊萨克其中,q是压缩代码y的实际分布,并且py_n(y_n)是entro_p_y模型。因此,相关研究已经引入了几种熵估计方法,包括基于软直方图的熵估计[14]、非参数因子熵模型[13]、基于3D-CNN的条件概率模型[15]和基于超先验的熵模型[13]。我们使用了完全分解的熵可以最小化,空间能量可以最佳地组合,约定因此,我们建议在损失函数中添加惩罚来正则化Ak和Bk。首先,我们需要尽可能地将能量集中在几个通道上。我们通过除以它的和来归一化Ak,因此,归一化Ak测量yk的能量分布。例如,如果A k[e]= 0。对于第e个通道,80%的能量将分布在第e个通道中。然后,我们通过使用能量分布的熵来构造惩罚项,如下所示:模型[13],它产生了有前途的图像压缩性能。因子熵模型产生一个估计,P=E[−Ak log2(6)匹配熵,为AE和AD服务。在测试过程中,我们可以使用JPEG2000熵编码器生成码流。3.1.2空间能量压缩约束根据数字编码理论[25],良好的能量压缩特性对于高编码效率性能至关重要分析变换将输入x转换成具有K个空间通道的压缩数据y,这类似于子带编码系统。在子带编码系统中,对于任何任意变换(其不需要是非正交的),K个空间信道的能量满足[26],σ2=Ak σ2我们把这个惩罚加到损失函数中。经过几次迭代后,大部分能量仅集中在一个或几个通道中,而其他通道几乎没有能量。我们将具有最大能量的通道表示为e。接下来,我们最小化相应的Bk[e]以使AkBk最小化,并且惩罚项被定义为:P=Bk[e](7)最后,损失函数定义为:J(θ,φ;x)=λD(x,x∈)+R(y∈)+βP(Ak,Bk)(8)yσ2=KΣ−1k=0XBkσ2(四)其中β控制惩罚项对损失函数3.2. 学习视频压缩其中Q是每个空间信道的量化误差考虑到视频由连续的帧组成,即 q=y∈-y,r是i个图像的重建误差视频压缩系统可以简单地从即 r=x−x。 σ2表示某一数据的变化量,代表能量。Ak描述分析变换中通道的能量分布,由x确定和优化参数θ;Bk测量量化误差图像压缩系统,y(t)=fθ(x(t))x(t)=gφ(y(t))(九)合成变换中的指定通道,由量化误差和参数φ确定。可以通过获得x和y的方差来容易地计算k。Bk由合成变换期间的量化误差和参数φ两者确定。Bk可以估计其中x(t)表示{x(0),x(1),···,x(T)},对于y(t),y∈(t),x∈(t),t∈[0,T)也有类似的表示。我们将T定义为如HEVC/H. 265 [3]的图片组(GOP),其可以独立编码和解码。两个连续的组共享相同的边界帧。10075EDED2由于相邻帧的时间相似性,在两帧之间编码残差信息可以获得比单独编码更高的编码效率。因此,更一般形式的视频压缩系统被重写为z(t)=x(t)−x(t)y(t)=fθ(z(t))z(t)=gφ(y)(t)(十)(a) 序列Akiyoin Escherichia coli,HT=2.673。x(t)=z(t)+x(t)其中,x(t)和x(t)是使用相邻E D分别在编码器和解码器侧的帧。 为在第一帧中,没有先前的信息,即,x(0)=x∈( 0 )=0时,视频压缩就简化为一个图像压缩,因此,我们把这些关键帧称为I帧。所提出的学习图像压缩的框图第2段(b)分段。3.2.1插值循环(b) SequenceBus in mA,HT=7.999图5:RT生成的predictiv efra mext(t)越接近ra w帧x(t),z(t)具有的信息越少。因此,需要高质量的帧内插网络。我们使用最新的工作[35]将插值公式化为两个相邻帧上的卷积h,递归地进行层次插值,直到所有帧都被重建。由于每个视频内容具有不同的运动纹理,因此需要自适应地选择T值以适应视频的运动特性,因此本文提出了一种自适应的T值确定方法x(t)=h(x(t−i),x(t+i))(11)基于时间能量压缩的策略。我们定义了两个相邻I帧的时间运动差其中,i是参考帧和gen之间的距离框架插值网络h中的优化参数为n。更重要的是,根据Eq。(10)预测的帧应该在编码器和解码器侧保持相同以防止质量差距,具有适当的距离τ(在我们的实验中τ=16),RT=x(τ)−x(0)(15)然后,我们考虑RT的分布,并计算Rt的熵为:x(t)=x(t)(十二)H =E[−PlogP](十六)E DTRT2RT因此,编码器和解码器应该平等地看到相同的信息然后,插值网络的输入当量(11)被重写为H T描述了视频序列的运动特性,如图1所示。5.大HT意味着该视频具有快速运动对象,而低运动视频具有小HT。然后,我们建议使用−i)(t+i)x(t)=h(x(t,x) (13)我们在编码器侧使用局部插值循环来将重构的帧存储在缓冲器中,如图1所示。第2段(b)分段。100%,U≤HTT=10,L≤HTU十六岁HT L(十七)3.2.2时间能量压缩为了进一步减少时间冗余,受HEVC随机访问[3]和工作[21]的启发,我们使用了无结构插值方法,其可以被示为z(0)=x(0),z(T)=x(T)其中L、U是下限和上限的常数。低运动视频被分配T=16,即,中间(T-1)帧可以被内插,而不会破坏质量第 在这种情况下,z(t)已经很小,所以我们发送更少的I帧以实现时间能量压缩。对于高运动视频,T仅设置为2,因为I帧x(T)=h (x(0),x(T))(十四)ψ100762442没有提供足够的信息来插入一个高-质量帧,所以我们删除层次插值,x(T) =h(x (0),x(T) ),x(3公吨)=h(x(T) ,x(T))防止错误传播。100774. 实现细节为了训练我们的图像压缩模型,我们使用了ImageNet数据库的一个子集[28],并将它们裁剪成数百万个128×128的样本。为了进行测试,我们使用了常用的柯达 无 损 图 像 数 据 库 [29], 其 中 包 含 24 张 未 压 缩 的768×512图像。为了验证我们所提出的方法的鲁棒性,我们还测试了所提出的方法在CVPR研讨会CLIC验证数据集[23]上,分辨率高达约2K。为了测试视频压缩的性能,我们使用了广泛使用的视频跟踪库(Video Trace Library,缩写为VTK)数据集[36],其中包括20个分辨率为352×288的视频和8个测试序列分辨率为832×480和416×240,这是视频编码标准化组常用的分辨率,丰富的纹理场景和运动场景。为了训练我们的图像压缩自动编码器,使用Adam [27]优化了模型,批量大小为16。在训练过程中,学习率保持在1×10−4的固定值在Eq。(8)、β设定为0。001。在我们的实验中,我们加入了能量-gy压缩惩罚,并且训练若干105迭代,并且然后针对每个λ训练模型多达若干106迭代。通过引入不同的λ来微调预训练的自动编码器,我们可以得到可变比特率。我们已经发现,通过使用预训练的自动编码器改变λ,能量分布属性不会发生很大变化,只要模型中参数的初始状态已经具有良好的空间能量压缩。因此,在训练神经网络时,我们只考虑一次λ试验的惩罚。在这里,我们获得了在集合{2,4,8,16,32,64}中有λ的六个模型。在我们的视频压缩方法中,我们使用预-[35]的训练模型来构建我们的重建循环。通过检查H T的直方图,我们使用L=6。0,U=8。0在Eq. (17)以确保大多数序列选择合适的T,并且平均T等于8。为了实现高主观质量,我们使用流行的MS-SSIM[30]作为失真项,定义为D=1−MS-SSIM(x,x)。为了测量编码效率,以每像素比特(bpp)为单位测量速率,并且率失真(RD)曲线被绘制以证明它们的编码效率。5. 实验在本节中,我们进行实验来评估性能,并给出比较结果。5.1. 消融研究为了显示我们提出的时空能量压缩方法的有效性,我们首先进行以下消融研究。我们比较我们的图像压缩(a) MS-SSIM在Kodak上进行了评估。 (b)MS-SSIM在ESTA上进行了评估。图6:消融研究。具有空间能量压缩约束的情况变为没有能量约束的情况。Kodak数据集上的平均RD性能如图所示。第6(a)段。据观察,能量压缩约束可以帮助自动编码器获得更高的编码效率,特别是在大比特预算的情况下。为了可视化时间能量紧凑的工作原理,我们进行了不同T的学习视频压缩的实验,如图所示。第6(b)段。随着T的增加,编码效率得到提高,但性能几乎饱和之间的T=8和T=16。我们的方法可以自适应地选择T来实现更好的速率-失真优化的情况下比常数T。5.2. 学习图像压缩我们将我们的方法与众所周知的压缩标准和最近基于神经网络的学习压缩方法进行比较,如图所示。7(a),其中MS-SSIM转换为分贝(−10 log10(1−MS-SSIM)),以清楚地说明差异。对于JPEG和JPEG2000,我们使用了官方软件libjpeg [31]和OpenJPEG [32],后者使用默认配置的YUV420格式。最先进的图像压缩标准是BPG [33] , 我 们 使 用 非 默 认 的 YUV444 格 式 参 考[15][18]。由于之前基于神经网络的方法的源代码不可用,我们仔细跟踪了Nick等人 [10],Theis等人 [11],Balle等人 [12]和Ripple等人 [18]各自研究的RD曲线中的点。Mentzer等人 [15]的数据来自其项目页面。可以观察到,我们的方法显著优于Nick等人 [10],The- is等人 [11],Balle '等人[12]。在高比特率下,我们的方法优于Mentzer等人 [15]和Ripple等人[18]的工作,因为我们的空间能量紧凑约束可以更有效地分配比特,具有更高的比特萌芽。我们的提案在低比特率下实现了与Mentzers work等人[15]和Ripple等人[18]相当的性能。目前,我们只使用因子化熵模型,我们的方法不依赖于熵模型的设计,10078(a) 柯达图像数据集。(b)CLIC图像数据集。(c)视频数据集。图7:使用不同数据集的比较结果。图8:每个视频序列的比较结果。埃尔斯因此,在未来的工作中,我们的比特分配方法可以与更复杂的上下文自适应熵模型(如[13])相结合,以产生更好的结果。图7(b)显示了在CLIC验证数据集上平均的JPEG、JPEG 2000和BPG之间的比较在MS-SSIM方面,我们的方法显著优于JPEG、JPEG2000和BPG,具有高分辨率图像。5.3. 学习视频压缩我们将我们的学习视频压缩与最先进的视频压缩算法和最近的学习视频压缩方法进行比较[21]。为了公平比较,我们使用每个视频序列的平均结果作为[21]。图1显示了使用双极晶体管的性能。7(c).对于HEVC/H.265和H.264,我们使用具有随机访问配置的官方软件HM16.0 [37]和JM 19.0 [38]GOP被设置为8,并且帧内周期也被设置为8,以使比较公平。对于MPEG-4第2部分和H.261,我们使用FFMPEG软件。[21]的数据点来自他们的原始论文。实验结果表明,该方法的性能明显优于MPEG-4和H.261标准,与H.264标准具有一定的竞争力。此外,我们提供了广泛的比特率,即使在低比特率下也能实现比工作[21]更好的性能,这得益于我们提出的插值循环和时间能量压缩。为了覆盖各种视频内容,我们还使用常见的测试序列来测试我们的编解码器,遵循工作[22],其结果比H.264稍差。八个序列的RD曲线如图所示8. 可以观察到,我们的方法对于大多数序列优于H. 264,并且对于序列BasketballPass和BQSquare甚至优于HEVC/H.265。5.4. 定性结果我们将一些重建的图像和视频可视化以展示定性性能。10079图9:来自Kodak数据集的一个重建图像kodim01图10:Videoparis cif中一个重建帧的示例,来自于数据集。重建图像如图所示。1(a)和图9.图1(a)显示了kodim 21的实例,其具有约100。12bpp和200:1的压缩比。可以观察到,在我们的重建图像中,使用0。比BPG、JPEG 2000和JPEG少115特别地,对于BPG编码的图像,当应用大的压缩比时,在天空中出现块伪像。图9示出了在大约0. 24bpp,压缩比为100:1,因为原始图像是24 bpp的无损PNG格式(每个颜色分量8位)。因此,观察到门上的闩锁在我们的重建图像中保持良好然而,对于BPG、JPEG2000和JPEG重建图像,图像是模糊的。图中示出了来自于数据集的一些重建帧。1(b)和图。10.利用插值环,可以大大节省速率。对于MPEG-4压缩帧,观察到清晰的块伪影许多细节和形状,如妇女的眼睛在图。10,在H.264压缩帧中被破坏。与他们不同,我们的方法没有任何块伪影,以产生视觉上令人愉快的结果。6. 结论我们提出了学习图像和视频压缩方法,通过时空能量压缩属性。具体地说,我们建议在图像压缩模型的损失函数中加入一个基于空间能量补偿的惩罚函数,以获得更高的性能。通过插值循环和基于时间信息熵的自适应插值周期选择,将图像压缩推广到视频压缩。实验结果表明,我们提出的图像压缩优于BPG与MS-SSIM质量度量,并提供更高的性能相比,国家的最先进的学习压缩方法。我们的视频压缩方法优于MPEG-4,并与常用的H.264竞争。我们的图像和视频压缩都可以产生比传统标准更视觉上令人愉快的结果。10080引用[1] G. K Wallace,“JPEG静止图像压缩标准”,IEEE Trans.消费者电子,vol. 38,第1号,页。2月43日至59日一九九一年[2] Majid Rabbani , Rajan Joshi , “An overview of theJPEG2000 still image compression standard”,ELSEVIERSignal Processing:图像通信,vol. 17,不,1,pp. 3-48,2002年1月。[3] G. J. Sullivan,J.欧姆,W。Han和T.Wiegand,“Overviewof the High Efficiency Video Coding(HEVC)Standard”,IEEE Transactions on Circuits and Systems for VideoTechnology,vol. 22,第12号,页。1649-1668 ,Dec.2012年。[4] T. Wiegand,G. J. Sullivan,G. Bjontegaard,A. Luthra,“Overview of the H.264/AVC Video Coding Standard”,IEEETransactions on Circuits and Systems for Video Technology,vol. 13,No. 7,pp. 560-576,7月。2003年。[5] P. Vincent , H. Larochelle , Y. Bengio 和 P. - A.Manzagol,关于机器学习(ICML),pp。1096-1103年7月5日至9日。2008年[6] Z. Cheng,H.孙,M。竹内,J.Katto,1-4,2018年6月17日至22日。[7] Z. Chen,Y. Li,F. Liu,Z. Liu,X.潘,W。太阳,Y.Wang,Y. Zhou, H. Zhu,S. Liu,1-4,2018年6月17日至22日。[8] G. Toderici、S.M.J. Hwang等人,[9] G , Toderici , D. Vincent , N. Johnson 等 人 , “FullResolution Image Compressionwith RecurrentNeuralNetworks” , IEEE Conf. 计 算 机 视 觉 和 模 式 识 别(CVPR),pp。1-9,2017年7月21日至26日。[10]Nick Johnson , Damien Vincent , David Minnen 等 人 ,“Im- proved Lossy Image Compression with Priming andSpa- tially Adaptive Bit Rates for Recurrent Networks”2017年3月1日至9日[11]刘文,Conf. 关于学习表征(ICLR),pp。1-19,2017年4月24日至26日。[12]放大图片作者:J. Simoncelli,“端到端优化图像压缩”,Intl. Conf. 《学习报告》(ICLR),页。1-27,2017年4月24日至26日。[13]Johannes Balle,D. Minnen,S.辛格,S。J. Hwang,N.Johnston,Conf. on Learning Representations(ICLR),pp.2018年1月23日。https://tensorflow.github.io/压缩/[14]E. Agustsson,F. Mentzer,M.查嫩湖卡维杰利河蒂莫夫特湖贝尼尼湖V. Gool,[15] F. Mentzer,E. Agustsson,M.查嫩河蒂莫夫特湖V. Gool,“Conditional Probability Models for Deep ImageCompression” , IEEE Conf. 计 算 机 视 觉 和 模 式 识 别(CVPR),2018年6月17日至22日。电子邮件地址:github.com/fab-jul/imgcomp-cvpr[16]Z. Cheng,H.孙,M。竹内,J. Katto,“基于深度卷积自动编码器的有损图像压缩”,图片编码研讨会,第100页。1-5,2018年6月24日至27日。[17]M. Li,W. Zuo,S. Gu,D. Zhao,中国粘蝇D. Zhang,“Learning Convolutional Networks for Content-WeightedImage Compress”,IEEE Conf.计算机视觉和模式识别(CVPR),2018年6月17日至22日。[18]里普奥伦湖Bourdev,“实时自适应图像压缩”,机器学习研究,卷。第70页。2922-2930,2017年。[19]S.桑图尔卡D. Budden,N. Saught,[20] E. Agustsson,M. Tschannen,F.门策河Timofte,andL. V. Gool,[21]C-Y Wu,N. Singhal,P. Krahenbuhl,[22]T. Chen,H.刘,智-地沈,T.Yue、X.Cao和Z.MA. “深度编码器:基于深度神经网络的视频压缩。2017 IEEEVisual Communications and Image Processing(V-CIP),pp.1C4,2017年12月。[23]学 习 图 像 压 缩 研 讨 会 和 挑 战 赛 , CVPR 2018 ,http://www.compression.cc/challenge/[24]W. Shi,J.卡瓦列罗角Huszar等人 IEEE计算机视觉和模式识别会议,2016年6月26日至7月1日。[25]N.S. Jayant和P.Noll,[26]张文忠,[27]D. P. Kingma和J. Ba,“Adam:A method for stochasticoptimization”,arXiv:1412.6980,pp.1-15,Dec. 2014年[28]J. Deng,W.东河,巴西-地索赫尔湖Li,K. Li和L. Fei-Fei,计算机视觉和模式识别,pp。1-8,2009年6月20-25日。[29]KodakLosslessTrueColorImageSuite,从http://r0k.us/graphics/kodak/下载10081[30]Z. Wang,中国山核桃E. P. Simoncelli和A. C.张文,1398-1402年,11月2013年。[31]JPEG官方软件libjpeg,http-s:jpeg.org/jpeg/software.html[32]JPEG2000官方软件OpenJPEG,https://jpeg.org/jpeg2000/software.html[33] BPG图像格式,https://bellard.org/bpg/[34]C. E.香农,“通信的数学理论”,贝尔系统技术杂志,卷。27,pp. 379-1948年7月423[35]S. 尼克劳斯湖Mai和F.Liu,[36]视频跟踪库。http://trace.eas.asu.edu/www.example.com[37]K.麦肯角罗斯沃恩湾布罗斯,M.纳卡里湾沙尔曼,G。J.Sullivan,2014年https://hevc.hhi。fraunhofer.de/svn/svn_HEVCSoftware/[38]A. M.Tourapis 、 K. Suhring , G. Sullivan , http ://iphome. hhi.de/suehring/tml/download/
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功