没有合适的资源?快使用搜索试试~ 我知道了~
Attention-guided Network for Ghost-free High Dynamic Range ImagingQingsen Yan1,2†, Dong Gong2†, Qinfeng Shi2,Anton van den Hengel2, Chunhua Shen2, Ian Reid2, Yanning Zhang1∗1School of Computer Science and Engineering, Northwestern Polytechnical University, China2The University of Adelaide, Australiahttps://donggong1.github.io/ahdrAbstractGhosting artifacts caused by moving objects or misalign-ments is a key challenge in high dynamic range (HDR)imaging for dynamic scenes. Previous methods first regis-ter the input low dynamic range (LDR) images using opticalflow before merging them, which are error-prone and causeghosts in results. A very recent work tries to bypass opti-cal flows via a deep network with skip-connections, how-ever, which still suffers from ghosting artifacts for severemovement. To avoid the ghosting from the source, we pro-pose a novel attention-guided end-to-end deep neural net-work (AHDRNet) to produce high-quality ghost-free HDRimages. Unlike previous methods directly stacking the LDRimages or features for merging, we use attention modulesto guide the merging according to the reference image. Theattention modules automatically suppress undesired com-ponents caused by misalignments and saturation and en-hance desirable fine details in the non-reference images.In addition to the attention model, we use dilated residu-al dense block (DRDB) to make full use of the hierarchicalfeatures and increase the receptive field for hallucinatingthe missing details. The proposed AHDRNet is a non-flow-based method, which can also avoid the artifacts generatedby optical-flow estimation error. Experiments on differen-t datasets show that the proposed AHDRNet can achievestate-of-the-art quantitative and qualitative results.1. IntroductionThe dynamic range of natural luminance values variesover several orders of magnitude. However, most digitalphotography sensors can only measure a limited fraction of∗† The first two authors contributed equally to this work. This workwas partially supported by NSFC (61871328), ARC (DP140102270, D-P160100703). Q. Yan and Y. Zhang were partially supported by NationalEngineering Laboratory for Integrated Aero-Space-Ground-Ocean Big Da-ta Application Technology. Q. Yan was supported by a scholarship fromCSC.Figure 1. LDR images with different exposures are shown in (a),and our result after tonemapping is shown in (b). The areas ofthe images that exhibit both large-scale movement and saturationare displayed in (c). The proposed AHDRNet generates an HDRimage with less ghosting artifacts and more details in saturatedregions (See zoomed-in patches in (d)).this range. The resulting low dynamic range (LDR) im-ages thus often have over or underexposed regions and don’treflect the human ability to see details in both bright anddark areas of a scene. High dynamic range (HDR) imag-ing has been developed to compensate for these limitations,and ideally aims to generate a single image that representsa broad range of illuminations.Some specialized hardware devices [24, 35] have beenproposed to produce HDR images directly, but they are usu-ally too expensive to be widely adopted. As a result, com-putational HDR imaging methods have drawn more atten-tion. The most common strategy is to take a series of LDRimages at different exposures and then merge them into anHDR image [2, 21, 23, 29, 39]. In multiple exposure meth-11751ods, one of the LDR images is usually considered as the ref-erence image (shown with the green border in Figure 1 (a)).Although these methods often generate high-quality HDRresults when the scene and camera are completely static,they will suffer from significantly ghosting and blurring ar-tifacts when there is motion between the input images.Global image misalignments can be compensated for us-ing homographies [33, 34, 37]. However, the ghosting ar-tifacts caused by moving objects and the missing detailsdue to saturation are complex to overcome. To tackle theghosting issue, some methods first carry out a more detailedalignment of the LDR images before merging [9, 14, 31].A variety of alignment procedures have been applied (e.g.optical flow [15, 16, 46]), but they still suffer from the ar-tifacts due to the estimation error. To avoid this alignmenterror, some methods [25, 28] proposed to reject the mis-aligned moving components as outliers directly. However,pixel-accurate identification of moving objects is difficult toachieve robustly, particularly when relying on simple pixellevel characteristics (e.g. pixel color [28]).Inspired by the successes of the deep neural networks(DNNs) in many image restoration tasks [18, 7, 40, 8], somedeep learning-based approaches [15, 37, 38] have been pro-posed recently to improve the HDR image composition pro-cess. In [15], a DNN is proposed to merge the LDR imagesafter an optical flow based alignment process. However, theDNN cannot handle the distortions caused by the inevitableoptical flow estimation error (See Kalantari et al.’s methodin Figure 1 (d)). In [37], the HDR imaging task is treat-ed as an image translation problem. Although the modelcan produce satisfactory results in some examples, it stil-l suffers from ghosting artifacts when there are large-scalemovements between the images. The DNN-based methodscan hallucinate some details in regions with saturation, butthe existing methods cannot handle large areas of saturation,particularly when there is also occlusion.We propose an attention-guided deep neural network(AHDRNet) for HDR imaging (See Figure 2). The neuralnetwork learns the relationships between input LDR imagesand HDR output. Previous methods [15, 37] take stacked L-DR images, or LDR image feature maps, as the input to themerging process, which mixes the misaligned image com-ponents at an early stage of the network, making it difficultto obtain ghost-free HDR results. Considering that ghost-ing is primarily an artifact of object motion and misalign-ments [15], we propose the learnable attention modules toguide the merging process. The attention modules gener-ate soft attention maps to evaluate the importance of differ-ent image regions for obtaining the required HDR image.They are expected to highlight the features complementaryto the reference image and exclude regions with motion andsevere saturation. The LDR image features with attentionguidance are then fed to the merging network to generate17520我们使用扩张残差密集块(DRDBs)构建了合并网络,该网络通过在[43]中提出的残差密集块(RDB)中使用扩张卷积层来实现。RDB有助于充分利用不同卷积层的信息,从而保留更多来自输入LDR图像的细节。扩张卷积可以扩大感受野,有助于恢复被饱和和移动物体污染的细节。本文的主要贡献可以总结如下:•我们提出了一种新的注意力引导网络,用于无幽灵HDR成像。它具有神经网络模型的所有优点,并克服了HDR成像中的一个主要问题,即对图像像素和饱和度的大误差具有鲁棒性。0•我们提出了一种基于扩张残差密集块的网络,用于合并来自LDR图像的注意力引导特征图。扩张残差密集块可以同时保留图像细节并扩大感受野,使网络能够在饱和区域中产生内容并生成具有丰富细节的HDR图像。0•在不同数据集上进行了大量实验证明了所提出的AHDRNet的优越性。我们还进行了消融研究,以量化我们模型中不同组件的作用。02. 相关工作0主要相关工作如下。依赖像素拒绝的方法:这些方法基于图像全局对齐的假设,将每个像素标记为静态区域或移动物体。Grosch[9]定义了一个错误图,利用输入的颜色差异来获得无幽灵HDR图像。Jacobs等人[14]根据加权方差测量检测幽灵区域。Pece和Kautz[27]计算输入图像的中值阈值位图以检测运动区域。Heo等人[11]通过联合概率密度粗略检测运动区域,并使用基于图割方法的能量最小化对这些区域进行了改进。Zhang和Cham[42]提出了基于图像梯度的质量度量方法,以在输入图像上生成加权图。排名最小化[19,25]也用于检测运动区域和重建HDR图像。即使达到所需的像素精度,拒绝像素会减少用于重建HDR图像的可用信息,这通常会导致遗漏细节(参见图1中的Oh方法[25])。依赖于配准的方法:这些方法通过在LDR图像中搜索最佳匹配区域来重建每个HDR区域。这是通过基于像素(光流方法)或基于块(基于块的方法)的方式实现的。17530稠密对应。Bogoni[1]使用光流估计运动矢量,并使用参数对曝光的像素进行变形。Kang等人[16]使用曝光时间信息将LDR图像的强度转换到亮度域,并计算光流以在LDR图像之间找到对应的像素。Sen等人[30]提出了一种基于块的能量最小化方法,将对齐和HDR重建结合在一起进行联合优化。Hu等人[12]基于亮度和梯度一致性在变换域上优化图像对齐。Hafner等人[10]提出了一种能量最小化方法,同时计算HDR辐照度和位移场。该方法提高了鲁棒性,但对于大运动效果不好,不通过示例学习,并且不尝试补偿饱和度。基于深度学习的方法:已经开发了许多基于深度学习的方法[3, 15,37]。Eilertsen等人[3]提出了一个深度自编码器网络,用于从一张图像预测HDR值。Endo[4]使用基于深度学习的方法从一张LDR图像合成多张LDR图像,然后通过合并它们来重建HDR图像。Kalantari等人[15]使用光流将输入图像对齐到参考图像,然后使用卷积神经网络获取HDR图像。Wu等人[37]提出了一种网络,可以学习将多张LDR图像转换为无幽灵HDR图像。这些方法的优点在于它们可以利用从训练数据中提取的信息来识别和补偿不符合HDR过程假设的图像区域。每种方法都解决了一个重要问题,但没有一种方法具有所提出的基于注意力的方法所具有的灵活性和鲁棒性(参见图1)。深度学习方法中的注意力机制:注意力已经成为深度学习中的一个关键发展,并在许多计算机视觉应用中使用。Lu等人[20]提出了一种新颖的自适应注意力模型,其中包含一个视觉哨兵用于图像字幕生成。Fan等人[5]为多个多模态推理任务堆叠了潜在注意力。Zhao等人[44]提出了一种多样化的视觉注意力网络,用于解决细粒度物体分类问题。通过允许模型仅关注相关信息,每种方法都通过实现迄今为止不可能的性能和鲁棒性。03.用于HDR成像的注意力引导网络0给定一系列动态场景的LDR图像(I1, I2, ...,Ik)具有不同的曝光度,HDR成像的目标是恢复与预设的参考图像Ir(从输入的LDR图像中选择)对齐的HDR图像H。所有图像Ii和H都是具有三个通道的RGB图像。按照[15,37]中的设置,我们使用三个LDR图像(I1, I2,I3)(按照曝光度排序)0长度为k的一系列动态场景的LDR图像(I1, I2, ...,Ik)具有不同的曝光度,HDR成像的目标是恢复与预设的参考图像Ir(从输入的LDR图像中选择)对齐的HDR图像H。所有图像Ii和H都是具有三个通道的RGB图像。按照[15,37]中的设置,我们使用三个LDR图像(I1, I2,I3)(按照曝光度排序)0Hi = Iγi/ti, �i = 1, 2, 3, (1)0其中γ>1表示伽马校正参数,ti表示图像Ii的曝光时间。我们在这项工作中设置γ=2.2。如[15]所建议,我们沿通道维度连接图像Ii和Hi以获得6通道张量Xi=[Ii, Hi],i=1, 2,3作为网络的输入。直观上,LDR图像Li有助于识别噪声和过曝区域,而Hi有助于检测对齐[15]。给定输入(X1, X2,X3),提出的AHDRNet通过以下方式获得HDR图像:0H = f(X1, X2, X3; θ), (2)0其中f(∙)表示提出的HDR网络,θ是网络参数。注意机制作为端到端AHDRNet网络f(∙)的一部分起作用。请注意,提出模型的输入图像可以是没有任何对齐预处理的原始图像。03.1. AHDRNet架构概述0与之前的方法[15,37]不同,该提出的AHDRNet通过比较编码图像特征来获取注意力图,然后在注意力图的指导下合并特征。如图2所示,AHDRNet由两个主要子网络组成,即注意力网络(用于特征提取)和合并网络(用于HDR图像估计)。注意力网络首先依靠相应的卷积编码器从每个LDR图像中分别提取特征。然后,我们将特定的注意力图应用于非参考图像上以识别有益特征。注意力图是通过注意力模块根据参考图像和每个非参考图像的特征图获得的。考虑到模型的目标是生成与参考图像一致的场景的HDR图像,将注意力应用于非参考图像的动机是在合并特征之前识别不对齐的组件,以减轻幽灵伪影。合并网络将在注意力引导下提取的特征作为输入,并依靠一系列扩张残差密集块(DRDBs)和全局残差学习(GRL)策略估计HDR图像。DRDBs和GRL有助于有效利用图像特征并获得具有合理细节的HDR图像。17540图2.提出的AHDRNet的架构。网络由一个用于特征提取的注意力网络和一个用于预测HDR图像的合并网络组成。注意力模块用于排除由于不对齐和过曝引起的有害组件,或者突出有用的细节。合并网络基于一系列扩张残差密集块(DRDBs)构建。全局残差跳跃连接用于增强训练。最终的HDR结果通过色调映射获得。所有特征图都有64个通道,核大小为3。可视化的映射是平均注意力特征Ai的表示。0融合网络融合了LDR图像的特征,并在受到过曝和不对齐移动物体污染的区域生成细节。03.2. 用于特征提取的注意力网络0给定三个6通道的输入图像Xi,i=1,2,3对应于三个LDR图像,注意力网络首先使用共享的编码层从三个输入中提取64通道的特征图Zi,i=1,2,3。为了清晰起见,我们定义符号Xr和Zr来表示在某些特殊情况下与参考LDR图像相对应的X2和Z2。如图2所示,为了获得非参考图像的注意力图,我们将非参考图像的特征Zi,i=1,3与参考图像特征图Zr一起输入到卷积注意力模块ai(∙),i=1,3中,然后获得非参考图像的注意力图Ai:0Ai = ai(Zi, Zr), i=1,3. (3)0Ai的大小与Zi相同。Ai中的值在[0,1]范围内。下面提供了注意力模块的详细信息。预测的注意力图用于通过以下方式关注非参考图像的特征:0Z'i = Ai ◦ Zi, i=1,3, (4)0其中◦表示逐点乘法,Z'i表示具有注意力引导的特征图。为了进行HDR融合,我们不是将原始特征图Zi堆叠起来,而是将参考特征图Zr(即Z2)和非参考图像特征Z'1和Z'3堆叠起来进行融合。因此,注意力网络在参考的引导下获得了一堆特征,即Zs0Zs = Concat(Z'1, Z2, Z'3), (5)0其中Concat(∙)表示连接操作。Zs将用作融合网络的输入。0图3.示例图像块及其对应的注意力图。在(a)-(f)中,从左到右:参考图像、一个非参考图像和应用于非参考图像的注意力图。(a)、(b)和(c)显示了显著不对齐区域的注意力图。(d)、(e)和(f)显示了注意力图可以突出显示有用区域。0由于HDR成像过程以参考图像为中心,根据参考图像预测并应用注意力图。如图3所示,注意力图可以抑制非参考图像中的不对齐区域(见(a)(b)和(c))和过曝区域(见(d)),避免有害特征进入融合过程,从而减轻源图像中的幽灵现象。当参考图像中的某些区域过曝(见(e))或噪声较大(见(f))时,注意力图也可以突出非参考图像中的有用特征。第4.2.1节的更多研究进一步证明了HDR成像中所提出的注意力机制的有效性。0注意力模块ai(∙),i=1,3在公式(3)中是两个小型CNN。注意力模块的结构如图4所示。注意力模块首先将输入特征图Zi和Zr进行连接,并在两个卷积(Conv)层之后获得注意力图。每个卷积层应用64个3×3的卷积层。两个卷积层分别经过ReLU激活和sigmoid激活。因此,注意力模块可以获得64通道的注意力图Ai,其值在[0,1]范围内。The merging network takes the stacked feature map Zsand the reference image feature map Zr as input. In the de-sign of the merging network, we take account of the char-acteristics of the HDR imaging problem and use the basicstructure of the residual dense network in [43] as the refer-ence. As shown in Figure 2, the network consists of severalconvolution layers, dilated residual dense blocks and sever-al skip connections. The generated feature maps at differentlayers are noted as Fj, j = 0, 1, ..., 7.Given the stacked feature Zs, the merging network firstobtains a 64-channel feature map after a Conv layer, andthen feed it into three DRDBs, which results in three corre-sponding feature maps F1, F2 and F3. Instead of using theRDB proposed in [43], we proposed to use the RDBs withdilated convolution (DRDB) for HDR imaging. The detailsof DRDB can be found in the following. By applying 3 × 3Conv on the concatenated feature map F4, we generate themerged and transferred feature map F5.Global residual learning with the reference features Be-fore reconstructing the HDR image from F5, inspired by thesuper-resolution methods [18, 43], we apply a global resid-ual learning strategy to obtain feature maps byDilated convolution + ReLu3 31 1 Element-wise additionConvolution + ReLuDilated Kernel17550图4.注意力单元首先将两个输入进行连接,然后通过两个卷积层获得注意力图,使用sigmoid激活函数将输出限制在[0,1]之间。0融合网络将堆叠的特征图Zs和参考图像特征图Zr作为输入。在融合网络的设计中,我们考虑了HDR成像问题的特点,并使用[43]中残差密集网络的基本结构作为参考。如图2所示,网络由多个卷积层、扩张残差密集块和多个跳跃连接组成。不同层次生成的特征图记为Fj,j=0,1,...,7。给定堆叠的特征Zs,融合网络首先经过一个卷积层得到一个64通道的特征图,然后将其输入到三个DRDB中,得到三个对应的特征图F1,F2和F3。我们提出使用具有扩张卷积(DRDB)的RDB而不是使用[43]中提出的RDB进行HDR成像。DRDB的详细信息可以在下面找到。通过对拼接的特征图F4进行3×3卷积,我们生成合并和转换后的特征图F5。在从F5中重建HDR图像之前,受到超分辨率方法[18,43]的启发,我们应用全局残差学习策略通过以下方式获得特征图:03.3. 用于HDR图像估计的融合网络0F6 = F5 + Zr,(6)0其中Zr是参考图像的浅层特征图。因此,合并网络倾向于学习残差特征。在提出的AHDRNet中,我们有包含来自参考图像的纯信息的浅层特征图Zr。因此,我们应用全局残差学习与参考特征图。我们认为特征图F6包含足够的信息来重建HDR图像。第4.2.1节的实证研究显示了全局残差学习策略的有效性。在两个卷积层之后(激活之后),我们在HDR域中估计HDR图像�H。最终的HDR图像通过色调映射操作显示(参见第3.4节)。0�0扩张残差稠密块0图5.带有三个卷积层的扩张残差稠密块结构示意图。我们采用残差稠密块[43]作为其主干,每个卷积层可以用扩张卷积替代。通过使用扩张残差稠密块,每个块的感受野都得到了扩展。0扩张残差稠密块由于HDR图像的某些局部区域的重建由于移动物体的遮挡和饱和度的原因无法从LDR图像中获得足够的信息,合并网络需要更大的感受野来生成细节。因此,我们在残差稠密块(RDB)[43]中应用2倍扩张卷积[41]。如图5所示,提出的扩张残差稠密块(DRDB)由一系列的卷积层、ReLU激活和基于密集连接的连接组成。每个卷积层将前面各层的所有特征图连接起来作为输入。与[13]中提出的密集块相比,RDB和DRDB在块的输入和输出之间应用了局部残差跳跃连接。有关RDB的更多细节可以在[43]中找到。在我们的实现中,每个DRDB中使用6个卷积层。第4.2.1节的实证研究显示了DRDB的有效性。03.4. 训练损失0如第3.3节所述,提出的AHDRNet在HDR域中预测HDR图像�H。由于HDR图像通常在色调映射之后显示,因此在色调映射图像上训练网络比直接在HDR域中训练更有效[15]。给定一个HDR域中的HDR图像H,我们使用µ-law对图像的范围进行压缩:0T(H) = log0log(1 + µ),(7)0其中 µ是一个参数,用于定义压缩的程度,T(H)表示经过色调映射的图像。在这项工作中,我们始终将H保持在[0,1]范围内,并设置µ=5000。方程7中的色调映射器是可微分的,非常适合用于训练网络。在我们的方法中,我们通过最小化基于ℓ1范数的色调映射估计图像与真实HDR图像之间的距离来训练网络。我们的损失函数定义如下:L = ∥T(�H) - T(H)∥1。(8)17560我们还测试了先前工作中使用的ℓ2损失[15,37],并注意到ℓ1损失对于保留细节更有效(见第4.2.2节),这与[45]中的观察一致。03.5. 实现细节0在我们的实现中,我们在卷积层中应用了64个3×3的特征,如果没有另外指定,则后面跟着ReLU激活函数。我们将所有卷积层的步幅大小设置为1,并使用零填充来保持特征图的大小。我们定义输出层来生成3通道图像。所有DRDB的增长率为32。每个DRDB中的最后一个卷积层应用1×1卷积来压缩特征图。对于训练,我们使用Adam优化器[17],批量大小和学习率分别设置为8和1×10−5。对于训练图像,我们随机裁剪256×256的补丁进行训练。网络的所有权重都使用Xavier方法[6]进行初始化。我们使用PyTorch[26]实现了我们的模型,使用NVIDIA GeForce 1080 TiGPU处理1500×1000的图像需要0.32秒。04. 实验04.1. 实验设置0训练数据我们在HDR数据集[15]上训练AHDRNet,该数据集包括74个训练样本和15个测试样本。对于每个样本,使用曝光偏差为{-2, 0, +2}或{-3, 0,+3}捕获三个不同的LDR图像。对裁剪的补丁进行数据增强以减轻过拟合。测试数据我们在Kalan-tari的数据集[15]以及没有地面真实值的数据集(如Sen的[30]和Tursun的[36]数据集)上测试了提出的AHDRNet。评估指标我们使用四个指标进行评估,具体如下。我们计算使用µ-law(PSNR-µ)、Mat-lab函数tonemap(PSNR-M)和线性(PSNR-L)域进行色调映射后的图像的PSNR值。我们还使用HDR-VDP-2[22]进行定量评估。04.2. 割舍研究04.2.1 模型架构研究0我们研究了AHDRNet的架构,并验证了整个AHDRNet中不同组件的重要性。我们通过比较提出的AHDRNet和以下AHDRNet的变体来进行割舍研究:•AHDRNet。AHDRNet的完整模型。0•DRDB-Net(即没有注意力的AHDRNet)。我们在这个变种中去除了注意力模块,其中特征图Zi直接堆叠并输入到合并网络中。0表1. 不同模型的定量比较。所有分数均为所有测试图像的平均值。0PSNR-µ PSNR-M PSNR-L HDR-VDP-20RB-Net 39.8648 28.3548 38.0044 60.1905 Deep-RB-Net41.1788 29.5414 38.9679 60.2724 RDB-Net 41.205829.4335 38.9747 60.5107 DRDB-Net 42.7345 31.416939.7800 60.8740 A-RDB-Net 43.0536 32.2025 40.510561.63620没有GRL 42.5313 32.9552 40.7558 62.28270AHDRNet 43.6172 33.0429 41.0309 62.30440(a)RB-Net(b)Deep-RB-Net(c)RDB-Net(d)DRDB-Net(e)A-RDB-Net(f)AHDRNet0图6. AHDRNet及其基线变体的视觉结果。0特征图Zi直接堆叠并输入到合并网络中。0•A-RDB-Net(即没有扩张的AHDRNet)。在这个AHDRNet的变体中,我们不使用扩张卷积。0•RDB-Net(即没有注意力和扩张的AHDRNet)。这个变种的AHDRNet不包含注意力操作和扩张卷积层。0•RB-Net(即没有注意力、扩张和密集连接的AHDRNet)。这个基线是基于残差块(RB)的合并网络。我们用相同数量的RB替换DRDB。0•Deep-RB-Net。使用更多的RB来接近RDB-Net的模型可压缩性。注意力模块。注意力模块是HDR图像去鬼影任务中非常有效的机制。如图6所示,与RDB-Net相比,A-RDB-Net可以通过注意力模块减轻鬼影伪影。类似的结果也可以在DRDB-Net和AHDR-Net中观察到。虽然DRDB-Net可以去除鬼影伪影,但它倾向于在饱和区域生成伪影(图6的底部补丁)。提出的带有注意力模块的AHDRNet可以消除鬼影伪影,同时保留背景信息(见图3)。如表1中的定量结果所示,AHDRNet和A-RDB-Net比DRDB-Net和RDB-Net获得了更好的改进。扩张残差密集块。与DRDB-Net相比,RB-Net的结果有明显的鬼影(见图6(a)和(d))。即使具有更多RB的Deep-RB-Net的结果也无法去除鬼影伪影。因此,增加网络的深度不是一种实际的方法来增强HDR图像质量。PSNR-µPSNR-MPSNR-LHDR-VDP-2PSNR-µPSNR-MPSNR-LH
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 保险服务门店新年工作计划PPT.pptx
- 车辆安全工作计划PPT.pptx
- ipqc工作总结PPT.pptx
- 车间员工上半年工作总结PPT.pptx
- 保险公司员工的工作总结PPT.pptx
- 报价工作总结PPT.pptx
- 冲压车间实习工作总结PPT.pptx
- ktv周工作总结PPT.pptx
- 保育院总务工作计划PPT.pptx
- xx年度现代教育技术工作总结PPT.pptx
- 出纳的年终总结PPT.pptx
- 贝贝班班级工作计划PPT.pptx
- 变电值班员技术个人工作总结PPT.pptx
- 大学生读书活动策划书PPT.pptx
- 财务出纳月工作总结PPT.pptx
- 大学生“三支一扶”服务期满工作总结(2)PPT.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功