没有合适的资源?快使用搜索试试~ 我知道了~
12569高效的神经网络压缩Hyeji Kim、Muhammad Umar Karim Khan和Chong-Min Kyung韩国科学技术高级研究院(KAIST),大韩民国{hyejikim89,umar,kyung}@ kaist.ac.kr摘要网络压缩通过减少参数数量来降低深度神经网络的计算复杂性和内存消耗。在基于SVD的网络压缩中,需要为网络的每一层确定正确的秩。本文提出了一种求全网络秩配置的有效方法。不同于以往的方法,考虑每一层单独,我们的方法认为整个网络的工作,选择正确的秩配置。我们提出了新的准确性指标来表示一个给定的神经网络的准确性和我们使用这些指标在一个非迭代的方式,以获得正确的秩配置,满足限制的FLOPs和内存,同时保持足够的准确性。实验表明,我们的方法提供了更好的精度和计算复杂度/内存消耗之间的折衷,同时执行压缩在更高的速度。对于VGG-16,与基线相比,我们的网络可以将FLOPs减少25%,并将准确性提高0.7%以前,类似的结果在4小时内实现了8个GPU。该方法也可用于神经网络的无损压缩。更好的精度和复杂性的妥协,以及极快的速度,我们的方法使它适合神经网络压缩。1. 介绍深度卷积神经网络在各种应用中一直表现出出色的性能,然而,与过去的方法相比,这种性能的计算成本很高 典型神经网络的数百万个参数需要巨大的计算能力和存储内存。因此,需要模型压缩来减少网络的参数数量。 本文的目的是开发 一种可以优化训练的神经网络以减少计算能力和内存使用的方法,图1.卷积层和全连接层以及它们的分解对应层。每一层被分成两个低秩分解。具有竞争力的准确性。通常,过滤器修剪技术已用于网络压缩。这种方法的目的是开发修剪策略,它可以满足目标约束的FLOP和内存。基于逐层搜索的启发式方法[11,18,23],强化学习[1,4,10] 和遗传和进化算法[22,25]已被用于定义修剪策略。在[5,21]中提出了一种基于启发式度量的贪婪选择方法来一起修剪网络的多个过滤器网络压缩的另一种方法是在网络中的每个滤波器上使用核分解。卷积层和全连接层可以表示为矩阵乘法,核分解可以应用于这些矩阵[2,7,12,15,28]。具有奇异值分解(SVD)的核分解自动为分解的核分配重要性(奇异值)这种自动排序使得过滤器修剪更容易,因为具有较低参数的分解的内核首先被修剪。简单地说,一个层的低秩近似将其分解为两个矩阵乘法,用于网络压缩,如图所示。1.一、对于核分解方案,问题归结为网络每层的最佳压缩比的选择我们需要找到正确的秩配置(即,压缩比),以满足对速度、内存和精度的约束。这与过去的方法不同,过去的方法使用求解器来I1O1I2臭氧I3O3I1O1 I2R2臭氧I3R3O3R1)3BD&RQY2BD&RQY1&RQY1BD&RQY2&RQY1BE)3&RQY2BE)12570LΣlLRl10.80.60.40.20Conv1Conv2Conv3Conv4Conv50 0.2 0.4 0.6 0.81归一化秩(a) yp,l10.80.60.40.20Conv1Conv2Conv3Conv4Conv50 0.20.40.60.8 1归一化秩(b) ym,l有助于神经网络的误差或准确性在本节中,我们描述了几个度量,它们表示层贡献的准确性,作为该层的秩的函数这种逐层精度度量可用于预测单个层对网络整体精度的贡献第一个度量是基于统计学的,而第二个涉及计算验证数据集的准确性。PCA能量度量。在奇异值分解(SVD)后,图2. AlexNet中逐层精度度量的插值函数。(a)yp,l基于归一化PCA能量。(b)ym,l基于使用部分训练数据集的归一化准确度。最小化固定秩的近似误差[19,20]和训练技术,以更好地补偿精度损失[3,27]。在[9,14,28]中采用了基于迭代搜索的方法来获得正确的秩配置。在[28]中,作者定义了一个基于PCA能量的准确性特征,并使用它来选择一个在每个迭代中要压缩的层。每层的最终秩是迭代逐层网络压缩的结果。强化学习-保留的大小直接影响算法的复杂度和准确度。未归一化的PCA能量由σ′(rl)=d=1σl(d)给出,其中rl是神经网络中第l层的秩,σl(d)是对第l层上的参数执行SVD之后的第d奇异值。详细地说,σ′(rl)是分解后对角矩阵的前rl个对角元素之和.很明显,随着未归一化PCA能量的减小,准确性降低具有秩rl的第l层的PCA能量是通过对非线性矩阵执行最小-最大归一化来获得的。归一化PCA能量,即,σ′(rl)−σ′(1)[9]在《古兰经》中,每个人都有自己的故事。yp,l(rl)=′ll′。(一)σl(rmax)−σ(1)dently。与[28]和[9]不同,它们分别优化每个层rately,[14]为整个网络寻找正确的秩配置虽然[14]与[28]和[9]相比显示出更好的性能,但由于其对正确秩配置的迭代搜索,它仍然需要大量在 本 文 中 , 我 们 提 出 了 有 效 的 神 经 网 络 压 缩(ENC),以获得最佳的核分解的秩配置。该方法是非迭代的;因此,与许多最近的方法相比,它执行压缩快得多。具体来说,我们提出了三种方法:ENC地图、ENC模型和ENC信息。ENC-Map使用映射函数从给定的复杂度约束中获得正确的秩配置。ENC模型使用代表整个网络准确性的度量来找到正确的秩配置。ENC-Inf在验证数据集上使用准确度模型和推理来达到正确的秩配置。我们的方法的代码可以在线获得。1本文其余部分的结构如下。 第2节和第3节描述了准确性指标。第4节讨论ENC-Map。基于搜索的方法,ENC模型和ENC- Inf,在第5节中给出。第6节和第7节对实验进行了讨论。2. 逐层精确度神经网络的误差可以在网络的组成层上划分。换句话说,每层1https://github.com/Hyeji-Kim/ENC这里rmax是最大值或初始秩。基于度量的指标。我们在本文中使用的第二个逐层准确性指标是基于验证数据集上的神经网络评估。对于第l层,通过改变rl而保持网络的其余部分不变来获得精度模型。为每一层建立了经验模型请注意,一个图层可能的等级数占据了一个很大的线性离散空间,这使得在验证数据集上评估精度变得不切实际。因此,我们使用VBMF [24]对估计准确度的秩进行采样,并对秩进行采样以提高测量的准确度。然后,我们跟进的分段三次埃尔米特插值多项式(PCHIP)算法。我们将第l层的基于测量的逐层准确度度量表示为ym,l(rl)。在图2中,我们显示了使用基于PCA能量和基于测量的方法进行插值的结果。这两个指标显示不同的配置文件。这是因为PCA能量本身不是准确度的表示,而是整体准确度的单调表示。3. 准确性度量在本节中,我们将描述如何使用逐层度量来表示完整神经网络的准确性我们估计的神经网络的输出和它的层的配置的联合分布神经网络的层的配置仅由每层的秩的选择来定义。归一化PCA能量归一化准确度12571我们的目标是在给定的约束条件下最大限度地提高网络的精度让我们通过秩配置来定义神经网络的配置,这是一个仅用网络复杂度对PCA能量进行加权,以减少在较低复杂度下的Ap(R)和在较高复杂度下的Amm(R)从数学上讲,每个层的等级的集合,即,A(R)=.ΣA(R)×C(R)+A(R)、 (7)R={r1,r2,… r L},(2)其中rl是第l层的秩。网络的整体精度可以由各个层的精度的联合分布来表示。没错c pCorigm其中C(R)是秩配置R的复杂度,Corig是网络的总复杂度。复杂度C(R)定义为:P(A; R)= P(a1,a2,., a L; R)、(3)其中AL是由第L层提供的精度。练习C(R)=ΣLl=1Cl(rl)=ΣLl=1cl rl,(8)通常,图层的精度贡献还取决于其中C(r)是第l层的复杂度。 com-其他层的等级然而,精度模型可以通过应用第2节中的逐层准确度度量,可以简化为层的逐层准确度度量贡献的函数。2,yp ,l(rl)和ym ,l(rl),其仅取决于层的秩。考虑到独立性,我们可以将整体准确性度量建模为YLP(A; R)=P(al; rl)。(四)l=1这种表示受到[28]的启发,其中逐层准确度度量的乘积用于估计整体准确度。为了估计精度,我们定义了三种类型的总体精度度量;基于测量的A m(R)、基于PCA能量的A p(R)以及两个度量的组合A c(R)。基于测量精度的逐层度量可以直接用于代替P(al;rl),即,YLAm(R)=ym,l(rl).(五)l=1虽然(1)的归一化PCA能量不是从准确度定义的,但[28]中表明,层的PCA因此,我们将基于PCA能量的准确性度量定义为YLA p(R)= y p,l(r l).(六)l=1在我们的实验中,我们注意到PCA能量度量在非常低的复杂度下不能准确地表示准确度。此外,由于网络是冗余的,基于测量的度量不能充分表示复杂度降低对更高复杂度下的准确性的影响。因此,我们定义了一个组合度量。该度量考虑了PCA能量和基于测量的逐层准确性度量。我们有12572L对于空间[12]和信道[7]解码的复杂度系数cl位置分别为c1=W1H1D1(I1+O1)和c1=W1H1(I1D2+O1)这里,W1和H1是输出特征图的宽度和高度,D1是滤波器窗口的大小,I1和O1是输入通道和滤波器的数量正如不久将看到的,我们对估计精度的确切值不感兴趣,而是从各种秩估计中获得的精度度量的相对换句话说,我们使用精度度量来提取具有最大精度度量值的部分秩配置4. ENC-映射:具有精度-复杂度映射的秩配置在本节中,我们将介绍一种简单的方法,通过映射复杂度和准确度来选择神经网络的秩配置。通过秩配置执行映射,因为复杂度和准确度都是秩配置的函数。 首先,我们直观地认为,所有层具有相同的精度惩罚将是比具有相同压缩比(即,制服)。因此,我们只考虑每一层的逐层矩阵相等的秩配置。从数学上讲,R e= R|yi,l(r l)= yi,k(r k),(9)其中l,k∈1,2,.,L和i∈ {p,m}。接下来,使用(8)计算Re的复杂度C(Re)准确度度量和复杂度是相对于彼此绘制的,Re,它提供了复杂性和准确性度量之间的映射。该映射在数学上给出为f C−A:R →R。(十)还要注意,从复杂度和准确度度量到秩配置的映射以及反之亦然也确实存在,即,f C−R:R → RL.(十一)12573公司简介Ct-你好秩RminRMaxRmaxRminRtarget总复杂度秩秩秩0.70.60.50.40.30.20.10RMaxOminRR1 2 3 4 5 6 7 8 9101112 13层索引图3.候选秩配置的提取(作为双层CNN的示例 有效空间由秩配置的界、Rmax和Rmin以及步长tl定义,其中复杂度在目标复杂度Ct附近,空间裕度为±δs. 候选秩配置位于Ct上,复杂度裕度±δm表示为星点。使用该映射,从逐层精度度量的反函数计算相应的秩配置,其中a=y(r)被转换为r=y−1(a)图4.VGG-16的归一化秩配置的分布(Ct= 25%,δs= 10%)。在边界Rmax(C =35%)和Rmin(C =15%)内选择最终秩配置R o。R min= f C−R(C t− δ s)。(十三)这里Ct是复杂度约束,δs是空间裕度。最后的秩配置Ro定义在空间边界Rmax和Rmin内,如图所示。4.第一章k,l Llk,l5.2.最小偏移搜索空间且k∈ {p,m}。 注意,逆存在为yk,l(rl)是一个递增函数,如图所示。2. 这里,a是从fC−A获得的可实现的逐层精度度量,同时满足复杂度约束。这种方法被称为ENC-Map,因为我们使用一个简单的映射来获得正确的秩配置。5. ENC-模型/推断:组合空间中的秩配置上一节中描述的方法强烈依赖于相等的逐层度量。因此,我们将秩配置问题推广到非等秩配置的组合问题,在Rmax和Rmin的有限空间中,我们只对候选秩配置R感兴趣, [R=R|C t−δ m%@To p- 1?ccXUDc\>%@均匀ENC-映射(fp,l)ENC-映射(fm,l)ENC-模型ENC-Inf(N=100)7RS-1ccXUDc\>%@12576模型目标搜索Top-1/Top-5访问量[%]搜索VGG-16ADC [9]-/9.2-/-4h@8 GPU7小时@4个GPU表1.网络压缩技术的性能比较。所提出的方法,均匀,[9],启发式[9]和[14]使用基于SVD的空间分解。[15]使用基于Tucker分解的信道分解。[10]使用通道修剪。∗基线精度[10] 是92.8%。更小的带宽接入更好45.044.544.043.543.042.542.0[27]第二十七话[19]第19话0.20.40.60.81.0FLOPs节约率24.523.522.521.520.519.5Y-D[15]LCNN[3]ENC模型0.20.250.30.350.4FLOPs节约率VGG-16(FLOPs20%)前5名搜索范围访问量(一)(b)第(1)款ENC-Inf 0.0%全网络图7. AlexNet的性能比较。(a)仅卷积层的压缩。(b)包括完全连接层的整个层的压缩。错误越小越好。isfy两个FLOP和参数约束。我们在这里使用了N =50,并优化了卷积层和全连接层。使用了10−3的I nitia le arningate,在每2个时期之后将其减少2倍,直到第16个时期。 微调大约需要9个小时。 如表1所示,在相同的复杂度下,我们的方法比[15]的 为了找到秩的最优解,我们的算法只需要一分钟的单核CPU与ENC-Model和3分钟的4个GPU与ENC-Inf。图7表明我们的方法优于现有技术。图中给出了翻新工程的FLOP节省率7在我们的实验中计算我们在30.7%和95.0%的FLOP下实现了43.33%和42.40%的top-1错误。第7(a)段。此外 , 我 们 达 到 了 20.4% 的 前 5 名 的 错 误 , 在 30%的FLOPs图。第7(b)段。与[19,27]使用知识转移[19]和力正则化[27]等精度补偿技术相比,我们的方法仅使用微调,这是最简单有效的策略。表2.与VGG-16相比,20% FLOP的目标复杂度更高。基线前5名准确率为89.9%。VGG-16与ImageNet 我们在FLOPs约束下优化了卷积层。复杂度约束设置为25%和20% FLOP,分别与[9,14]和[11,15,28]进行对于ENC-Inf,我们设置N=40。层7-8、9-10和11-13彼此分组以用于顶层子空间。压缩后的网络以10−5 的 整 数周期进行微调,在第四个时期减少到原来的1/10。微调大约需要1天。通过25%的FLOP减少,ENC-Inf在4个GPU上只需5分钟,并且与[14]相比,在没有和有微调的情况下,它如表1所示,我们的ENC-Map非常快。它可以在单核CPU上仅需4秒即可找到结果,而之前的研究在8个GPU上需要4小时[9],在4个GPU上需要7小时[14]。表2中给出了FLOP减少20%的结果可以看出,我们的方法优于逐层策略。前1位误差[%]复杂性政策不含FT带FT时间AlexNet浮点数37.5%Y-D等. [第十五条]- /-- /1.6-(56.6(占79.9%)参数18.4%ENC-Inf- /--0.1 /-0.23m@4GPU@ImageNet[第十五条]ENC模型- /--0.1 /-0.21m@CPU均匀29.9/23.60.8/0.5-前5名误差[%](70.6(占总人口的百分比)@ImageNetFLOPS 25%[第14话ENC-Inf13.0/9.110.7/7.3-0.3 /-0.1-0.6/-0.2(in我们的执行)500万@4GPUENC模型11.3/7.9-0.7 /-0.23m@CPUENC-Map14.5/10.2-0.2 /-0.14s@CPUResNet-56[10]第10话12.7/-2.7磅/-0.2/-0.9/--1小时@GPU(93.1% /-)FLOPS 50%ENC-Inf2.9/-0.1/-3m@4GPU@Cifar-10ENC模型3.5/-0.1/-1m@CPUENC-Map3.3/-0.1/-3s@CPUAsym.3D [28]百分之一点零Y-D等. [第十五条]百分之零点五Layer-by-layer12577模型搜索FLOPsTop-11.21.00.80.60.41.21.00.80.60.4表3.无损压缩与充分微调。0.20.2 0.4 0.6 0.81.00.20.20.40.6 0.8 1.0搜索微调FLOPsTop-1)/23V6DYiQJ5DWiR)/23V6DYiQJ5DW iR图8.优化模型的标准化CPU延迟的对于单个图像分类,基线CNN的延迟在VGG-16中为10.59s,在ResNet- 56中为142.2ms表4.快速无损压缩,并对VGG进行短暂微调16.基线top-1准确率为70.6%。更小的带宽接入更好ResNet-56和Cifar 10。定义搜索空间在3级层次结构中。层2-19、21-37和39-55被放置在除了第一卷积层和全连接层之外的单独的组我们将一个组中最大的底层层数设置为4。第二层空间由底层的数量定义,如图1.五、对于ENC-Inf,我们设置N=20。压缩后的ResNet-56与10−3 的整数倍整数倍微调大约需要1小时。ENC-图和ENC-模型实现0.1%的准确度损失(即,93.1%top-1精度),微调后FLOPs减少50%ENC-Map和ENC-Inf的时间分别为单核CPU 3秒和4 GPU 5分钟。与基于学习的最先进技术相比,它的效率要高得多,后者在单个GPU上需要1小时[10]。6.4. 无损压缩无损压缩的思想是将目标精度设置为原始神经网络的精度,然后优化网络。然而,由于我们在优化后进行微调,因此可以将目标精度设置为略低于原始神经网络的精度。通过微调恢复剩余的准确度。为了设置简化的精度约束,我们使用[14]中的精度估计方法。然后,复杂性约束(即,FLOPs)是从准确性和复杂性约束之间的映射函数计算的。如表3所示,我们的压缩方法在不损失精度的情况下显著降低我们的快速压缩方法和简短的微调相结合,可以进一步降低FLOPs没有准确性损失。表4显示了无损压缩的结果。在1个时期内进行微调的版本。使用[14]中的方法计算0.1、0.2和1个历元的精确度阈值(考虑微调)我们使用VGG-16将FLOP降低了41%,而没有任何准确性损失。该过程仅需0.1 epoch或22分钟,使用单个GPU。此外,我们的方法与1 epoch微调需要3.7小时与一个单一的GPU,它提供了更好的压缩(33% FLOPs)相比,4小时的搜索(64% FLOPs)在[9]。6.5. 嵌入式板上的结果我们评估了压缩网络模型的延迟,用于在ODROID-XU 4板上使用Samsung Exynos 5422移动处理器进行推理 图 8 表 明 本 文 中 的 我 们 使 用 ENC 模 型 来 优 化AlexNet,VGG-16和ResNet-56的卷积层。8.我们注意到,卷积层的延迟分别是基线ResNet-56和AlexNet的总延迟的72%和62%,而图1中的偏置延迟则是最小的。8是由于其他操作,包括批量归一化和全连接层。AlexNet-conv的结果表明,卷积层的理论FLOPs减少对应于这些层的延迟改善。7. 结论在本文中,我们提出了有效的神经网络压缩方法。我们的方法是基于低秩核分解。我们提出了一个整体的,基于模型的方法来获得秩配置,满足给定的一组约束。 我们的方法可以压缩神经网络,同时提供有竞争力的精度。此外,我们的方法用于压缩的时间是以秒或分钟为单位,而以前提出的方法需要几个小时才能实现类似的结果。本工作得到MSIT的支持,编号为GFP /(CISS-2013M3 A6 A6073718)。$GGiWiRQDOODWHQF\GXHWRIQFUHDVHGOD\HUViVQHJOiJiEOH9**-165HV1HW-56$OH[1HW$OH[1HW-cRQY.1RUPDOi]HG/DWHQc1RUPDOi]HG/DWHQc政策访问量AlexNetENC-Inf百分之三十一百分之零点零政策历元访问量[9]第九话0百分之六十四百分之零点零ENC模型0百分之五十七-0.1%12578引用[1] Anubhav Ashok,Nicholas Rhinehart,Fares Beainy,andKris M Kitani. N2N学习:通过策略梯度强化学习实现网络到网络的压缩。2018年4月[2] 玛塞拉·阿斯特丽德和李承益卷积神经网络压缩的cp分解和张量幂方法大数据和智能计算(BigComp),2017年IEEE国际会议,第115-118页。IEEE,2017年。[3] Hessam Bagherinezhad,Mohammad Rastegari,and AliFarhadi. Lcnn:基于查找的卷积神经网络。在IEEE计算机视觉和模式识别会议论文集,第7120-7129页[4] Han Cai,Tianyao Chen,Weinan Zhang,Yong Yu,andJun Wang.基于网络变换的架构搜索强化学习。arXiv预印本arXiv:1707.04873,2017。[5] 陈廷武,张查,戴安娜·马库列斯库。资源受限卷积神经网络的层补偿剪枝arXiv预印本arXiv:1810.00518,2018。[6] Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,KaiLi,and Li Fei-Fei. Imagenet:一个大规模的分层图像数据库。在计算机视觉和模式识别,2009年。CVPR2009。IEEE会议,第248-255页。IEEE,2009年。[7] Misha Denil,Babak Shakibi,Laurent Dinh,Nando deFreitas,et al.深度学习中的参数预测。在神经信息处理系统(NIPS)的进展中,第2148-2156页[8] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在Proceedings ofthe IEEE conference on computer vision and patternrecognition,第770-778页[9] 何一辉和宋涵。Adc:利用强化学习实现自动深度压缩和加速arXiv预印本arXiv:1802.03494,2018。[10] Yihui He, Ji Lin ,Zhijian Liu ,Hanrui Wang,Li-JiaLi,and Song Han. Amc:移动设备上模型压缩和加速的自动化。在欧洲计算机视觉会议(ECCV)的会议记录中,第784- 800页[11] Yihui He,Xiangyu Zhang,and Jian Sun.用于加速深度神 经 网 络 的 通 道 修 剪 。 在 国 际 计 算 机 视 觉 会 议(ICCV),第2卷,2017年。[12] Max Jaderberg Andrea Vedaldi和Andrew Zisserman加速具有低秩扩展的卷积神经网络。arXiv预印本arXiv:1405.3866,2014。[13] 杨庆贾、埃文·谢尔哈默、杰夫·多纳休、谢尔盖·卡拉耶夫、乔纳森·朗、罗斯·吉希克、塞尔吉奥·瓜达拉马和特雷弗·达雷尔。Caffe:用于快速特征嵌入的卷积架构第22 届ACM 国 际多 媒体 会议 论文 集 ,第675-678 页 。ACM,2014年。[14] Hyeji Kim和Chong-Min Kyung。高速卷积神经网络的自动秩arXiv预印本arXiv:1806.10821,2018。[15] Yong-Deok Kim,Eunhyeok Park,Sungjoo Yoo,TaelimChoi,Lu Yang,and Dongjun Shin.用于快速和低功耗移动应用的深度卷积神经网络在2016年5月的国际学习表征会议(ICLR)上[16] 亚历克斯·克列日夫斯基和杰弗里·辛顿从微小的图像中学习多层特征。技术报告,Cite- seer,2009年。[17] 亚历克斯·克里热夫斯基、伊利亚·萨茨克弗和杰弗里·E·辛顿。使用深度卷积神经网络的图像网分类。神经信息处理系统的进展,第1097-1105页,2012年[18] Hao Li,Asim Kadav,Igor Durdanovic,Hanan Samet,and Hans Peter Graf.修剪过滤器以实现高效的卷积。arXiv预印本arXiv:1608.08710,2016。[19] Shaohui Lin,Rongrong Ji,Chao Chen,Dacheng Tao,and Jiebo Luo.通过知识转移的低秩分解的整体cnn压缩IEEE关于模式分析和机器智能的交易,2018。[20] Shaohui Lin,Rongrong Ji,Xiaowei Guo,Xuelong Li,et al.通过全局误差重构实现卷积神经网络压缩。在IJCAI,第1753-1759页,2016年。[21] Shaohui Lin,Rongrong Ji,Yuchao Li,Yongjian Wu,Feiyue Huang,and Baochang Zhang.通过全局动态过滤器修剪加速卷积网络。在IJCAI,第2425-2432页[22] Hanxiao Liu , Karen Simonyan , Oriol Vinyals ,Chrisantha Fernando,and Koray Kavukcuoglu.用于高效体 系 结 构 搜 索 的 分 层 表 示 。 arXiv 预 印 本 arXiv :1711.00436,2017。[23] Jian-Hao Luo,Jianxin Wu,and Weiyao Lin. Thinet:一种用于深度神经网络压缩的过滤器级修剪方法。arXiv预印本arXiv:170
下载后可阅读完整内容,剩余1页未读,立即下载
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功