没有合适的资源?快使用搜索试试~ 我知道了~
AugGAN:基于GAN的数据增强跨域自适应Sheng-Wei Huang1,Che-TsungLin1,2[000−0002−5843−7294], Shu-PingChen1,Yen-YiWu1, Po-HaoHsu1, and Shang-HongLai11国立清华大学计算机科学系2智能移动事业部,机械和机电一体化系统研究台湾工业技术研究院实验室网址:shengwei@mx.nthu.edu.tw,AlexLin@itri.org.tw,网址:www.example.com,lai@cs.nthu.edu.tw抽象。基于深度学习的图像到图像翻译方法旨在学习两个域的联合分布并找到它们之间的变换。 尽管最近基于GAN(生成对抗网络)的方法已经显示出令人信服的结果,但是它们在保留图像对象和维持翻译一致性方面容易失败,这降低了它们在诸如为不同领域生成大规模训练数据的任务上的实用性。 为了解决这个问题,我们的目的是一个结构感知的图像到图像的翻译网络,这是由编码器,生成器,鉴别器和解析网络的两个域,分别在一个统一的框架。 与不同图像翻译任务上的竞争方法相比,专用网络生成更多视觉上合理的图像。此外,我们通过使用从图像翻译结果生成的数据集训练Faster-RCNN和YOLO来定量评估不同的方法,并通过使用所提出的图像对象保留网络来证明检测精度的显着提高关键词:生成对抗网络,图像到图像翻译,语义分割,对象检测,域自适应1介绍深度学习管道已经刺激了一般对象检测的实质性进展。检测器不断在几个检测数据集上突破边界。然而,尽管能够有效地检测通过任意视角看到的对象获得性能增益的最常见方法是经历麻烦的数据收集/注释过程。然而,最近生成对抗网络(GANs)在图像到图像转换方面的成功为生成大规模检测训练数据而无需对象注释开辟了可能性表示平均贡献2Huang等人生成对抗网络(Goodfellow et al. 2014)[1],其将两个网络(即,生成器和生成器)相互竞争,已经成为用于学习随机数据分布的生成模型的强大框架虽然期望GANs从随机噪声向量生成RGB图像及其相关的边界框听起来仍然像是一种幻想,但训练GANs将图像从一种场景转换到另一种场景可以帮助跳过繁琐的数据注释过程。在过去,基于GAN的图像到图像转换方法,如Pix2Pix [2],由于需要成对训练数据,被认为应用虽然这些方法产生了令人印象深刻的结果,但它们需要成对训练图像的事实在很大程度上降低了它们对于我们要解决的问题的实用性。最近,不成对的图像到图像翻译方法已经在各种域适应挑战上取得了具有几乎相同的架构,CycleGAN [3],DiscoGAN [4]和DualGAN [5]通过引入循环一致性约束使不成对的图像到图像转换成为可能。CoGAN [6]是一种也适用于未配对图像的模型,使用两个共享权重生成器生成具有一个随机噪声的两个域的图像。UNIT [7]是CoGAN的扩展 除了具有与CoGAN类似的硬权重共享约束外,Liu et al.通过鼓励两个编码器将来自两个域的图像映射到相同的潜在空间,进一步实现了潜在空间假设,这大大提高了翻译的一致性。这些方法都在几个图像到图像的翻译任务上展示了令人信服的视觉效果;然而,阻碍这些方法提供大规模检测训练数据的能力,特别是当面对具有大的域偏移的翻译任务时,是这些网络经常得到这样的解决方案,其中翻译结果在风格方面与目标域不可区分,并且通常包含损坏的图像对象。在本文中,我们提出了一个结构感知的图像到图像的翻译网络,它使我们能够直接受益于对象检测,通过转换现有的检测RGB数据从其原始域的其他场景。这项工作的贡献是三方面的:1)我们训练编码器网络通过分割子任务的监督来提取结构感知信息,2)我们对不同的权重共享策略进行实验,以确保在图像转换期间保留图像对象,以及3)我们的对象保留网络在夜间车辆检测方面提供了显着的性能增益。我们特别强调白天到夜间的图像转换,不仅是因为夜间检测的重要性,而且因为白天/夜晚的图像转换的重要性。年龄变换是最困难的域变换之一。然而,我们的方法也能够处理各种域对。我们在合成(即,SYNTHIA [8],GTA数据集[9])与竞争方法相比,我们的网络的域转换结果显著增强了对象检测器在合成(即,SYNTHIA、GTA)和真实世界(即,KITTI [10],ITRI)数据。此外,我们欢迎那些对工研院数据集感兴趣的人给我们发电子邮件。基于GAN的数据增强跨域自适应3图 1 : 所 提 出 的 图 像 到 图 像 翻 译 网 络 的 总 体 结 构 X , Y :imagedomainXandY;Z:featuredomain;X¨pred,Y¨pred:predictedsegimen-tationmasks;X¨,Y¨:translatedresuls;dottedlineimplicatesoft-sharringg,solidline暗示硬共享。2拟议框架在无监督的图像到图像翻译中,模型学习联合分布,其中网络将来自两个域的图像编码到共享的特征空间中。我们假设,为了将图像正确地转换到另一个域,编码信息需要包含1)域A和B之间的相互样式信息,以及2)给定输入图像的结构信息,如图1所示。基于这一假设,我们设计了我们的网络,以联合优化图像翻译和语义分割。通过我们的权重共享策略,分割子任务作为一个辅助regulization图像翻译。让X和Y来定义这两个值,X和Y表示相应的-响应分割掩码,并且Z表示编码的特征空间。如图1所示,我们的网络由两个编码器Ex:X→ Z和Ey:Y→Z,两个边,Gx:Z→Y¯和Gy:Z→X¯,两个边一般来说,Px:Z→Xpred,和PY: Z→Ypred,并且两个wd是严格的Dx和Dy分别用于两个图像域。我们的网络同时学习两个方向的图像域转换和分割子任务。对于输入x∈X,Ex首先将x编码到潜在空间中,并且256-channefeaturevect是执行以下操作:1)将translatd输 出 yviaGx,以及2)将sema nticreprentationxpredviaPx。输出输出的变换是通过所述被创建的编码或对{Ey,Gy}来计算所述重构图像x_rec。我们的网络的详细架构在表1中给出。4Huang等人表1:图像到图像转换实验的网络架构。N、K和S分别表示卷积滤波器的数量、内核大小和步幅图层编码器图层信息1CONV N64、K7、S12CONV,ReLU N128,K3,S23CONV,ReLU N256,K3,S24RESBLK,ELU N512,K3,S15RESBLK,ELU N512,K3,S15 RESBLK,ELU N512,K3,S1图层生成器/解析网络图层信息1RESBLK,ELU N512,K3,S1,硬共享2RESBLK,ELU N512,K3,S1,硬共享3RESBLK,ELU N512,K3,S1,硬共享4RESBLK,ELU N512,K3,S1,硬共享5RESBLK,ELU N512,K3,S1,硬共享6RESBLK,ELU N512,K3,S1,硬共享7DCONV、ReLU N128、K3、S2、软共享8DCONV、ReLU N64、K3、S2、软共享9 (发电机)CONV、Tanh N3、K7、S19 (解析网络)CONV、ReLUN(任务特定)、K7、S110 (解析网络)CONV、SoftmaxN6(特定任务)、K1、S0层鉴别器层信息1CONV,LeakyReLU N64、K4、S22CONV,LeakyReLU N128、K4、S23CONV,LeakyReLU N256,K4,S23 CONV,LeakyReLU N512、K4、S23 CONV,LeakyReLU N512、K4、S13 CONV,S形N1、K4、S12.1结构感知编码和分段子任务我们积极引导编码器网络通过分割子任务正则化它们来提取上下文感知特征,使得提取的256通道特征向量不仅包含X和Y域之间的相互样式信息,而且还包含输入图像的复杂低级语义特征,这些特征在翻译过程中对图像对象的保存很有价值。分割损失被公式化为:Lseg−x(Px,Ex,X,X)=λseg−L1Expdata(x)[Px(Ex(x))−x1]+λseg−crossentropyExpdata(x)[log(Px(Ex(x))−x1](一)基于GAN的数据增强跨域自适应5x x xxLseg−y(Py,Ey,Y,Y)=λseg−L1Eyp数据(y)[Py(Ey(y))−y1](二)+ λseg−交叉熵Ey p数据(y)[log(Py(Ey(y))−y)<$1]2.2多任务网络的权值分担在生成器和解析网络之间共享权重允许生成器充分利用上下文感知特征向量。我们硬共享前6个残差块,软共享随后的两个去卷积块,用于生成器和解析网络。我们对不同的权重共享策略进行了实验,如第3.2节所示,例如硬共享、不共享去卷积块以及不共享残差块,并得出最佳共享策略。我们计算两个网络的反卷积层之间的权重差,并通过均方误差将该差异建模为损失函数软权重共享损失函数的数学表达式由下式给出:Lω(ωG,ωP)=−log((ωG·ωP/ωG2ωP2)2)(3)其中ωG和ωP分别表示由生成器和解析网络的去卷积层形成的权重向量2.3循环一致性循环一致性损失已被证明在防止网络在目标域中生成随机图像方面非常有效。我们还在所提出的框架中强制执行循环一致性约束,以进一步正则化不适定的无监督图像到图像翻译问题。损失函数由下式给出Lcyc(Ex,Gx,Ey,Gy,X,Y)=Ex pdata(x) [Gy(Ey(Gx(Ex(x)−x1]+Ey p[G(四)(E(G(E(y)− y]。数据(y)x x y y12.4对抗性学习我们的网络包含两个生成对抗网络:GAN1:{Ex,Gx,Dx}和GAN2:{Ey,Gy,Dy}。我们将对抗损失应用于两个GAN,并将目标损失函数公式化为:LGAN1(Ex,Gx,Dx,X,Y)=Ey p数据(y)[logDx(y)]+Ex pdata(x)[log(1−Dx(Gx(Ex(五)(x)]LGAN2(Ey,Gy,Dy,Y,X)=Ex pdata(x)[logDy(x)]+Ey p(六)[log(1−D(G(E(y)]数据(y)y y y6Huang等人2.5网络学习我们共同解决了图像翻译流的学习问题:{E1,G1}和{E2,G2},图像解析流:{E1,P1}和{E2,P2},以及两个GAN网络:GAN1和GAN2,用于训练所提出的网络。综合目标函数如下:L满=LGAN(Ex,Gx,Dx,X,Y)+LGAN(Ey,Gy,Dy,Y,X)+λcyc*Lcyc(Ex,Gx,Ey,Gy,X,Y)+λ(L(E、P,X,X()+L(E,P,Y,Y())(七)segseg xx赛格伊+λω*(Lωx(ωGx,ωPx)+Lωy(ωGy,ωPy))3实验结果虽然许多工作致力于提供大规模的车辆数据集对于研究界[11-15],大多数公众是在白天收集的。考虑到基于CNN的检测器高度依赖数据增强技术来刺激性能,有必要使用白天和夜间图像来训练检测器,以便使它们更通用。合成数据集,如SYNTHIA或GTA数据集,提供了不同的道路合成序列以及在诸如白天、夜晚、雪等场景中的分割掩模。由于我们的网络需要分割掩码和夜间图像,因此我们使用SYNTHIA和GTA数据集对网络进行了训练。然而,出于评估目的,我们利用真实世界的数据,如KITTI和我们的ITRI数据集。通过训练YOLO进一步分析了网络的性能[16]和更快的R-CNN(基于VGG 16)[17]检测器,具有生成的图像集。除了修改两个检测器以执行1级车辆检测之外,所有超参数与用于PASCAL VOC挑战训练的超参数相同被认为是真阳性的对象的IOU阈值是0.5,我们遵循常见对象检测数据集的标准。在转换的分割地面真理,其对应的检测,我们排除了边界框的高度低于40像素或遮挡超过75%,在随后的AP估计。3.1合成数据集我们首先评估训练检测器的有效性与转换后的图像在白天和夜间的情况下。我们评估了我们的网络,该网络是用SYNTHIA训练的,通过用我们的网络产生的转换图像训练检测器。如表2所示,AugGAN在白天和夜晚场景中都优于竞争方法。AugGAN在使用GTA数据集进行训练时也超过了其竞争对手,见表3。从视觉上看,AugGAN的转换结果在图像对象保留和防止伪影出现方面明显更好,如图2和图3所示。基于GAN的数据增强跨域自适应7图2:SYNTHIA昼夜转换结果-使用SYNTHIA训练的GAN:第一行:SYNTHIA日间测试图像;第二行:CycleGAN结果;第三行:UNIT结果;第四行:AugGAN结果图3:GTA昼夜转换结果-用GTA训练的GAN:第一行:GTA日间测试图像;第二行:Cycle-GAN的输出;第三行:UNIT的输出;第四行:AugGAN的输出8Huang等人表 2 : 检 测 准 确 度 比 较 ( AP ) - 使 用 SYNTHIA 训 练 的GANSDTrain/SNTrain:SYNTHIA日间/夜间训练集; SDTest/SNTest:SYNTHIA日间/夜间试验装置。培训测试CycleGAN单元AugGAN 检测器SDTrain SNTest36.135.239.0YoloSNTrain SDTest33.832.638.0YoloSDTrain SNTest65.957.272.2Faster RCNNSNTrain SDTest65.762.770.1Faster RCNN表3:检测精度比较(AP)-用GAN产生的变换图像训练的检测器(用GTA数据集训练),并用真实图像测试。GTA-D-Train:以GTA训练白天图像作为输入的转换数据; GTA-N-测试:GTA测试夜间数据培训测试CycleGAN单元AugGAN探测器GTA-D-Train GTA-N-Test 20.5 23.6 25.3 YOLOGTA-D-Train GTA-N-Test 54.4 62.5 67.4 Faster-RCNN3.2KITTI和ITRI夜间数据集除了在SYNTHIA和GTA数据集上进行测试外,我们还评估了我们的网络在真实世界数据上的能力,例如KITTI,它已被广泛用于评估自动驾驶系统中使用的道路物体检测器的性能使用之前训练的AugGAN,无论是使用SYNTHIA还是GTA数据集进行训练我们使用翻译的KITTI数据集训练车辆检测器,并在ITRI-Night测试集(9366张图像,20833个车辆实例)上进行测试。如实验结果所示,即使AugGAN是用合成数据集训练的,通过AugGAN定量和可视化转换的真实世界数据也能获得更好的结果,参见表4、图4和图5。3.3ITRI白天和夜间数据集我们收集了一组真实驾驶的白天(25104张图像/87374个车辆实例)数据集,这些数据集主要是在与我们的夜间数据集(9366张图像,20833个车辆实例)相同的场景中捕获的。在表5中,实验证明了与其他数据集中类似的结果转换后的昼夜训练图像被证明有助于车辆检测器的训练。生成的训练图像基于GAN的数据增强跨域自适应9表4:检测精度比较(AP)-用GAN产生的变换图像训练的检测器(用GTA数据集和SYNTHIA训练),并用真实图像测试。KITTI-D2N-S/KITTI-D2N-G:GAN生成的KITTI昼夜训练数据; ITRIN:ITRI-Night数据集。培训测试CycleGAN单元AugGAN 检测器KITTI-D2N-SITRIN20.219.031.5YoloKITTI-D2N-G ITRIN28.520.546.0YoloKITTI-D2N-SITRIN59.649.265.6Faster RCNNKITTI-D2N-G ITRIN72.064.079.3Faster RCNN由于其在图像对象中的保留,AugGAN的性能优于竞争方法,图6和图7中显示了一些示例。表5:检测准确度比较(AP)-用GAN产生的变换图像训练的检测器(用SYNTHIA/GTA数据集训练)。ITRID-D2N-S/ITRID-D2N-G:ITRI-day白天到晚上的训练数据,由使用SYNTHIA/GTA数据集训练的GAN生成; ITRIN:ITRI-Night数据集。培训测试CycleGAN单元AugGAN 检测器ITRID-D2N-SITRIN35.541.345.3YoloITRID-D2N-G ITRIN37.942.644.1YoloITRID-D2N-SITRIN72.474.581.2Faster RCNNITRID-D2N-G ITRIN86.285.986.1Faster RCNN图4:KITTI昼夜转换结果-使用SYNTHIA训练的GAN:第一行:KITTI图像;第二排:CycleGAN的结果;第3行:UNIT的结果;第4行:AugGAN的结果;10Huang等人图5:KITTI数据集昼夜转换结果-使用GTA数据集训练的GANs:第一行:来自KITTI数据集的输入图像;第二行:CycleGAN输出;第三行:UNIT输出;第四行:AugGAN输出3.4白天和夜间AugGAN能够跨未配对的合成域和真实域学习变换,并且仅需要域A中的分割监督。这增加了学习跨域适应的灵活性,用于随后的检测器训练。如图8:第二行,我们的方法不仅可以从合成-合成域对,而且可以从合成-实数域对学习图像平移。图6:ITRI-Day数据集昼夜转换结果-使用SYNTHIA训练的GAN:第一行:来自ITRI-Day数据集的输入图像;第二行:cycleGAN输出;第三行:UNIT输出;第四行:AugGAN输出基于GAN的数据增强跨域自适应11图7:ITRI-Day数据集昼夜转换结果-GTA数据集训练的GAN:第一行:ITRI-Day数据集的输入图像;第二行:cycleGAN的输出;第三行:UNIT的输出;第四行:AugGAN的图8:更多图像翻译案例:第一列:GTA-day至SYNTHIA;第2列:GTA-白天到GTA-日落;第3列:GTA-白天到GTA-下雨;第4列:SYNTHIA-白天到ITRI-夜晚4模型分析4.1分段子任务在我们关于引入分割子任务的初始实验中,解析网络仅在前向循环中使用(例如,只有白天到晚上)。我们12Huang等人表6:检测精度比较(AP)-用GAN产生的变换数据训练的检测器(用SYNTHIA训练)。SDTrain:SYNTHIA白天训练集,转换为夜间训练集; SNTest:SYNTHIA夜间测试集。训练测试CycleGAN UNIT AugGAN-1 AugGAN-2探测器SDTrain SNTest36. 1 35. 2 38. 1 39. 0 YOLOSDTrainSNTest六十五点九57.2 68.7 72.2Faster RCNN后来发现,我们的结果得到了改善,通过利用解析网络来正则化正向和反向循环。从表6中可以看出,很明显,将正则化添加到逆循环导致更好的变换结果,这使得检测器更准确。虽然只使用单侧分割已经优于以前的作品,在向前和向后循环中引入分割为对象检测带来了进一步的准确性提高。4.2权重分担策略我们的网络设计是基于这样的假设,即通过适当的权重共享,提取的各个层的语义因此,找到合适的权重分配策略是我们设计中最重要的因素。神经网络的权值分配机制大致可分为软权值分配和硬权值分配。软权重共享[19]最初是为了正则化而提出的,可以应用于网络压缩[20]。最近,硬权重共享已被证明在生成具有类似高级语义的图像方面是有用的[6]。我们目前采用的策略是双重的:1)生成器-解析网络对的硬共享编码器和残差块我们经过大量的试验和错误才得出了这个结论表7:权重分担策略比较:λw表示余弦相似性损失乘数,其中λw =0.02产生最佳结果。此表中的矩阵是Faster RCNN培训测试权重共享策略AP-AugGANSDTrainSNTest编码器:硬39.9SDTrainSNTest编码器:硬;解码器:硬57.2SDTrainSNTest编码器:硬;解码器:软(λw=0.02)68.7基于GAN的数据增强跨域自适应13图9:不同权重共享策略的风格转移和分割结果:第1行:输入图像;第2行:硬权重共享、仅编码器上的硬加权(λw=0)、以及编码器中的硬加权共享与解码器中的软权重共享(λw=0.02)的风格转移和分割结果我们意识到这两种策略对于优化我们的网络是不可或缺的。在没有硬共享1)中的所述层的情况下,图像对象趋于失真;如果没有2),网络往往只优化其中一个任务,见表7和图9。简而言之,我们的网络超越了竞争的方法,因为我们的多任务网络可以保持现实的转换风格,以及保留图像对象的分割子任务的帮助下。5结论和今后的工作在这项工作中,我们提出了一个图像到图像的翻译网络生成大规模的可训练数据的车辆检测算法。由于分割子任务的额外指导,我们的网络特别擅长保存图像对象。我们的方法,虽然远非完美,定量超过竞争的方法,刺激车辆检测的准确性。在未来,我们将继续尝试基于这个框架的不同任务14Huang等人我们为世界创造创新解决方案的追求将继续迈进。引用1. 古德费洛岛Pouget-Abadie,J.Mirza,M.,徐,B.,沃德-法利,D.,Ozair,S.,Courville,A. Bengio,Y.:生成性对抗网。在:NIPS。(2014年)2. Isola,P.,Zhu,J.Y.,周,T.,Efros,A.A.:使用条件对抗网络的图像到图像翻译。CVPR(2017)3. Zhu,J.Y.,Park,T. Isola,P.,Efros,A.A.:使用循环一致对抗网络的不成对图像到图像翻译。In:ICCV. (2017年)4. 金,T.,Cha,M.,Kim,H.李,J.,Kim,J.:学习发现跨域关系与生成对抗网络。arXiv预印本arXiv:1703.05192(2017)5. Yi,Z.,张洪,Tan,P.,龚,M.:Dualgan:图像到图像翻译的无监督双重学习。ArXiv预印本(2017)6. Liu,M.Y. Tuzel,O.: 耦合生成对抗网络。 在:NIPS。(2016年)7. Liu,M.Y. Breuel,T.,Kautz,J.:无监督图像到图像翻译网络。在:NIPS。(2017年)8. Ros,G.,塞拉特湖Materzynska,J.,Vazquez,D.,洛佩兹:Synthia数据集:用于城市场景语义分割的大量合成图像在:CVPR中。(2016年)9. Richter,S.R.,Vineet,V.,Roth,S.,Koltun,V.:播放数据:从电脑游戏中得到的真相。In:ECCV. (2016年)10. Geiger,A.,Lenz,P.乌尔塔松河:我们准备好自动驾驶了吗KittiVision基准套件。在:CVPR中。(2012年)11. Sivaraman,S.,Trivedi,M.M.:一种通用的主动学习道路车辆识别与跟踪框架。IEEE Transactions on Intelligent TransportationSystem11(2)(2010)26712. Zhou,Y.,(1996年),中国科学院,刘,L.,Shao,L. Mellor,M.:戴夫:一个统一的框架,用于快速车辆检测和注释。In:ECCV. (2016年)13. 杨湖,Luo,P.,Change Loy,C.,唐X:用于细粒度分类和验证的大规模汽车数据集。在:CVPR中。(2015年)14. Krause,J.,斯塔克M. Deng,J.,李菲菲:用于细粒度分类的3D对象表示。在:ICCV研讨会。(二零一三年)15. Everingham,M.凡古尔湖威廉姆斯,C.K.,Winn,J.,齐瑟曼,A.:pascal视觉对象类(voc)的挑战。IJCV(2010)16. Redmon,J.,Divvala,S.,格尔希克河Farhadi,A.:你只看一次:统一的实时物体检测。在:CVPR中。(2016年)17. Ren,S.,他,K.,格尔希克河孙杰:更快的r-cnn:利用区域建议网络进行实时目标检测。在:NIPS。(2015年)18. Xiang,Y.,中国科学院,Choi,W. Lin,Y.,(1996年),Savarese,S.:用于对象建议和检测的子类感知卷积神经网络。在:WACV中。(2017年)19. Nowlan , S.J. Hinton , G.E. : 通 过 软 权 重 共 享 简 化 神 经 网 络 。N.E.U.R.C.C.PutAt〇n4(4)(1992)47320. Ullrich,K.,Meeds,E.,Welling,M.:神经网络压缩的软权值分配。arXiv预印本arXiv:1702.04008(2017)
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功