没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2277获取更多论文在线混合轻量级表示学习及其在视觉跟踪郑一彩1,4金敏智1,2朴恩赫4韩宝亨1,2,3chey0313@postech.ac.krminji@snu.ac.kreh. postech.ac.krbhhan@snu.ac.kr1ASRI,2ECE,3IPAI,首尔国立大学4名CSE,POSTECH摘要本文提出了一种用于流数据的新型混合表示学习框架,其中视频中的图像帧由两个不同的深度神经网络的集成来建模;一个是低比特量化网络,另一个是轻量级全精度网络。前者以较低的代价学习粗糙的原始信息,而后者则以高保真的方式向原始表示传递残余信息所提出的并行架构是有效的,以保持互补的信息,因为固定点算法可以在量化的网络和轻量级模型中使用,提供了一个紧凑的通道修剪网络给出的精确表示。我们将混合表示技术结合到在线视觉跟踪任务中,其中深度神经网络需要实时处理目标外观的时间变化与基于传统深度神经网络的最先进的实时跟踪器相比,我们的跟踪算法在标准基准测试中表现出具有竞争力的准确性,而计算成本和内存占用却很小。1介绍深度神经表征学习的最新研究[Heetal. ,2016;Szegedy等人,2015]在各种计算机视觉任务中取得了显著进展。然而,由于它们的成功在很大程度上取决于高性能GPU和大内存,因此将训练好的模型部署到资源匮乏的环境中的实际应用程序中仍然具有挑战性,例如。视觉监视、机器人导航和嵌入式系统。这些缺点在处理视频的问题中加剧,这严重需要用于实时处理的有效降低神经网络计算代价的主流方法分为两类:低比特量 化 和 通 道 修 剪 。 低 比 特 量 化 方 法 [Junget al. ,2019;Bulat和Tzimiropoulos,2019]试图通过使用低精度权重和激活来减少深度神经网络的计算负担。尽管这些方法在简单的离线情况图 像 域 中 任 务 的 学 习 场 景 , 例 如 : , 图 像 分 类[Russakovskyet al. ,2015],但是它们仍然遭受流数据中的挑战,包括在线适应和具有有限精度的细粒度预测。模型压缩的另一个范例,通道修剪侧重于减少每层中的通道数量深度神经网络[Heet al. ,2017;Gaoet al. ,2018;Kang and Han,2020]。最近,一对夫妇的渠道prun-ing方法[Jung等人。,2020;Che等人,2018年]已经显示出与基线模型相比具有竞争力的性能,其在用于流数据的在线任务上具有完整的参数。然而,它们的压缩效率的大小和推理成本仍然不如低比特量化方法。通过观察这两种方法的互补特性,我们提出了一种新的框架来学习混合表示流数据的基础上的低比特量化和紧凑的全精度网络的合奏在混合网络的融合中,低比特量化网络有效地传递了数据的主要信息,而轻量级通道修剪网络则增加了表示中缺失的细节,便于在线模型更新以处理数据的时间变化。我们评估了在线视觉跟踪的算法,这需要在线模型更新和实时流数据中高度准确的边界框对齐。我们的算法是独特的,在这个意义上,输出模型是轻量级的,适合于系统的资源约束。此外,我们empiri- cally验证,我们的混合表示模型适用于各种类型的跟踪方法[Junget al. ,2018;Liet al. ,2019;Chenetal. ,2021]。我们的贡献有以下三个方面:• 我们提出了一个混合表示学习框架的基础上,低比特量化和通道修剪通过学习一个有效的低位宽的主网络和精确的残差网络,分别。• 我们成功地处理了两种流行的模型压缩技术之间的权衡,并通过引入残差架构来促进• 我们的学习算法在准确性和效率方面具有竞争力,特别是在资源感知环境中说明了竞争力。arXiv:2205.11179v1 [cs.CV] 2022年5月+v:mala2277获取更多论文··W{}l·∗WLWWWWWW01Nl002相关作品2.1低位量化低位量化的最新研究[Junget al. ,2019年;Park和Yoo,2020年]在图像分类方面取得了成功的进展。与二进制量 化 相 关 的 研 究 [Hubaraet al. , 2016 年 ;Bulat 和Tzimiropoulos,2019年]显示了低精度优化的潜力,仅使用二值化激活和参数实现合理的精度。基于4位或5位量化的其他方法[Junget al. ,2019年;Park和Yoo,2020年]提出了更实用的解决方案,实现了较低或可忽略的准确性,3混合表示学习3.1概述我们的目标是使用从量化和通道修剪获得的两个轻量级深度神经网络的集合来提高表示的质量量化网络负责主要时不变信息的特征编码,而通道修剪模型覆盖高精度时变残差信息。给定输入图像A0,标准卷积神经网络(CNN)学习特征提取器fconv(;)并如下估计特征图Aconv:减少损耗,同时实现高效的定点计算。另一方面,存在另一种研究趋势,AconvANl= fconv(A0;Wconv),(1)试 图 在 全 精 度 网 络 的 帮 助 下 提 高 量 化 模 型 的 性 能[Zhuanget al. ,2020]。具体来说,他们同时训练量化网络与参数共享的全精度网络,以允许相关的梯度流获得更好的精度。然而,全精度网络被放弃用于推理,这失去了混合结构的全部效力。我们明智地设计了框架,利用全精度和量化网络的视觉跟踪的好处。为了减轻网络量化训练的不稳定性,[Qinet al. ,2020年]学习二进制神经网络与一个额外的正则化,最大化的熵的量化模型参数的分布。 另其中conv=W1,.,W N是贯穿N 1层的卷积滤波器的集合。在第i个中间层中,我们应用具有辅助操作的卷积,导出特征图,其由下式给出:Ai=σ(Ai−1<$Wi),(2)其中,σ()表示非线性激活函数,并且表示卷积算子。与传统的CNN相反,我们的框架并行使用两个网络,一个量化网络fq(·; ·)和一个通道修剪网络fp(·;·),它们分别生成输出为Aq= fq(A; Wq),Wq ={W q,., W q},(3)手,[Yuet al. ,2020]提出了一个新的正则化器,让Ap=fp(A0;Wp),Wp={Wp,.,Wp}。(四)量化模型参数的分布模拟了单-1Nl形态分布虽然这些方法在离线问题(如图像分类)中实现了竞争性性能,但在在线问题中,其精度大幅下降行更新,使应用程序的视觉跟踪不然后,所提出的混合表示Ah由两个输出之和给出,如下所示:Ah=A q+A p=fq(A;Wq)+fp(A; Wp).(五)直截了当。本文介绍了新设计归一化方法考虑了量化间隔,以保持在线模型更新期间的特征质量。2.2通道修剪另一种突出的深度神经网络轻量化方法,通道修剪,旨在减少模型参数中的通道数量。 基于LASSO正则化的开创性工作[Heet al. ,2017]在保持图像分类任务的准确性的同时加强了模型的稀疏性。 [Gaoet al. ,2018]已经提出了通过使用通道显著性预测器在运行时动态修剪通道的特征提升方法。此外,[Junget al. ,2020]采用传统的信道修剪方法[Heet al. ,2017]到在线对象跟踪,显示出相当大的性能-我们可以训练任意任务的预测网络,然后进行特征提取。注意,混合表示也用于预测网络中;信道修剪应用于预测网络的所有层,而低比特量化部分地应用于激活量化。3.2 原网络为了最大化降低精度的网络的益处,我们在所有Nl层中对模型参数和激活两者进行优化。我们采用[Jungetal. ,2019],并将额外的正则化损失项引入量化数据以进行快速和稳定的训练。权重量化权重量化函数Ql(·):wl→w是com。曼斯增益。虽然通道修剪模型的能力是由两个步骤组成。首先,权重是线性变换的,适用于在线和离线学习,其压缩由可学习参数cl和dl形成[-1,1],速率仍然低于低位量化。我们的混合表示学习算法旨在提高-它们分别定义量化区间的中心和宽度。只有内部的权重值-通过结合互补性来val[cl-dl,cl+dl]被量化,而其余的被量化。表示从一个低比特量化网络和夹紧。第一步的正式定义如下:轻量级全精度网络。在保持从丰富的离线预训练中获得的量化网络中的主要信息的同时,全精度网络被+v:mala2277获取更多论文符号(wl),如果|WL|>CWWW压缩wl=LW0如果|WL|cl,则为1一一+dli=1其中bnbnaa=如果是信用证,则为0— Dl(八)σi−std(Ai)++ µi−avg(Ai)+,(12)否则,bn bnNl其中α l= 0。5/d l和β l= −0。5c l/d l+0. 五、全-malization和[·]+表示ReLU函数。 注意,σi量化区间由其可学习参数定义,区间参数(cl,dl)。假设激活中心(CL)和宽度(DL)。我们假设激活A AA AAbn服从高斯分布,正则化损失由于ReLU功能,它们是非负的。通过应用舍入函数获得最终量化输出Aq我强制激活大于高斯l且低于avg(Abn)+2·std(Abn)的,则在ac-范围Al中的单个元素,iiAq=roun d(Al·(2Nb−1))。(九)量化网络每个卷积层的输出现在由下式给出:A1+ 1=σ(Q1(A1)<$Q1+ 1(W1+ 1)),其中标准连续有效范围。从统计学上讲,这意味着几乎96%的正值被训练成位于活动范围内3.3残差网络我们提出了一种随机信道修剪算法,Gumbel-softmax技巧来生成离散掩码样本从一个连续输出空间的模型我们的算法-卷积运算被硬件友好的定点运算所取代,以获得额外的加速。通过将量化应用于整个网络,最终卷积层由Aqfq(A0;q),其中fq(i)是通过权重和激活两者的量化的特征提取网络。用归一化Rithm学习一组信道选择概率向量B1,.,其中b1指示哪个信道可能在第l层中被采样。通过采用在[Janget al. ,2017],b1如下生成离散通道选择掩码M1:exp.gi+log(bl[i])我们现在提出我们的训练计划,量子化 特别地,我们讨论了一种新的正则化M<$l[i]=exp .gi+log(bl[i])τ、+ expi量化损失,quant,分为权重和激活正常化损失,Lquant=LqW+ LqA。(十)体重正常化。裁剪模型参数,使用Ml[i]=round(M<$l[i]),(13)其中gi和gi'表示来自Gumbel分布的随机噪声样本,τ表示温度。我们应用直通Gumbel估计梯度近似-学习的间隔[cl-dl,cl+dl]导致类似于[Janget al. ,2017]。在在训练的前向传递中,我们应用修剪掩码Ml量化表示,并使优化过程不稳定。事实证明,最终精度对{cl,dl}的初始化敏感,尤其是低位-到第l层的输出激活Ap,其由下式给出A p= σ(A p<$W)<$Ml,l =1. . . (14)宽度.为了减轻限制,我们提出了一个简单但有效的正则化器qW,强制大多数参数位于一定范围内,该范围由下式给出:N其中表示逐通道乘法。然后,通过应用信道修剪网络fp(·; ·)来获得最终卷积层的表示,如下所示:Ap=fp(A0;Wp). 请注意,带有选择的通道τ和µi由电流量化+v:mala2277获取更多论文我ΣW我0我WLqW=L平均值(αW |W i|+ β i)− µ0+低于阈值的概率在测试时被移除。对于训练,信道选择概率{b}Nl为i=1 . 标准品(αi|+ β|+β)−Σ2,(11)通过最小化以下损失项来学习Nlll=1其中avg(·)和std(·)分别表示其输入矩阵中所有条目的平均值和标准偏差,|·|返回Lprune=||Ml||第一条,(十五)l=1W+v:mala2277获取更多论文图1:我们算法的总体框架。我们在预训练时训练低比特量化网络(fq)和轻量级全精度网络(fp)的混合表示,而在测试阶段仅对轻量级网络进行微调。红色箭头表示在线模型更新中全精度网络的梯度反向传播,而蓝色箭头表示预训练中的反向传播其中活动信道的数量受到惩罚。4在线跟踪的混合表示我们将所提出的混合表示学习方法应用于在线视觉跟踪,其目的是在第一帧给定地面实况边界框的情况下顺序这项任务是适当的测试所提出的算法,因为视觉跟踪需要有效的在线目标外观建模和准确的边界框回归。用于视觉跟踪的在线混合表示学习的整体框架如图1所示,其中呈现了用于离线预训练和在线模型更新的两种反向传播路径。在预训练阶段,我们的框架训练量化网络和通道修剪网络的参数。另一方面,在测试时的在线模型更新过程中,我们冻结量化网络的参数以保持静态的粗信息,同时允许轻量级的全精度网络适应目标外观的变化。我们将我们的算法应用于三个基线跟踪器RT-MDNet [Junget al. ,2018],SiamRPN++[Liet al. ,2019]和TransT [Chenet al. ,2021]。我们用损失项Lhyb=L基线+λ1L定量+λ2L修剪,(16)其中Lbaseline表示从基线跟踪器提出的损失项,并且{λ1,λ2}是平衡超参数。混合RT-MDNet。RT-MDNet首先从整个图像中生成特征图,然后预测从特征图中采样的候选获胜者。混合RT-MDNet将我们的混合表示网络应用于特征提取网络,而预测网络仅采用通道修剪网络。我们使用通道修剪网络执行在线更新。Hybrid SiamRPN++。SiamRPN++使用Siamese网络通过目标表示和候选特征图之间的互相关处理跟踪算法。预测器网络由二元分类器和边界框回归器组成,基于交叉相关结果。为了制定Hybrid SiamRPN++,我们将我们的混合表示网络应用于Siamese骨干,并在预测器中采用通道修剪网络杂交transT。TransT是SiamRPN++的变体,其应用了Transformer编码器-解码器网络[Vaswaniet al. [2017年],以特征相关性。 类似于Hy- brid SiamRPN++,我们将混合网络纳入骨干网,并在其他部分使用通道修剪网络。此外,对于Transformer中的所有自注意,我们执行激活量化以减少点积运算中的计算负担。5实验5.1培训准备为了预训练混合跟踪器,我们采用与基线网络相同的训练数据集[Junget al. ,2018年;Li等人,2019;Chenetal. ,2021]。我们采用每个基线跟踪器的预训练模型进行初始化,并使用建议的损失函数对其进行微调。学习的混合模型在标准视觉跟踪基准测试OTB2015上进行测试[Wuet al. ,2015],UAV123 [Muelleret al. ,2016],LaSOT [Fanet al. , 2019] , VOT2016 [Kristanet al. ,2016]和VOT 2018 [Kristanet al. ,2018年],用于与最近提出的竞争对手进行比较。我们使用OTB 2015中的精确率(Prec)和成功率(Succ),VOT 2016/2018中的预期平 均 重 叠 ( EAO ) 和 归 一 化 精 确 度 ( Norm.Pr ) 在LaSOT中。5.2实现细节我们使用相同的学习率作为基线,但将量化网络的速率降低到Hybrid SiamRPN++中原始值的1/10。如[Jungetal. , 2019 年 ] , 我 们 在 Hybrid SiamRPN++ 和 HybridTransT中的第一个卷积层中使用全精度。对于Hybrid RT-MDNet,我们使用批量大小48训练模型对于Hybrid SiamRPN++,训练在8个GPU上进行,迭代次数为10万次,批量大小为22,采用与Hybrid RT-MDNet相同的优化方法量化1485 121 15 7 11 72 12 3 10 2分类回归修剪0.13 0.210.23 0.020.46 0.09预训练联机更新预测融合+v:mala2277获取更多论文HybRT-MDNetHybSiamRPN++HybTransTconv1conv2 conv3 fc4FC5FC6L1l2l 3l 4RPNL1l2l 3 attpred位(A/W)32/44/44/4---32/55/55/55/55/3232/55/55/56/3232/32层数比0.110.250.320.290.030.000.020.040.170.510.260.020.060.240.650.03RC修剪0.190.040.090.530.260.490.090.080.070.061.000.070.060.060.391.00RC定量0.130.030.03---0.080.040.040.04-0.080.040.040.16-RC混合电路0.320.070.120.530.260.490.170.120.120.101.000.150.100.110.551.00RC(国际收支平衡表合计)0.26(= 4.9B /19.0B)0.32(= 5.1 M/15.2 M)0.42(= 4.4 M/10.5 M)表1:所提出的方法的计算成本。我们比较了通道修剪网络,量化网络和我们的混合表示模型与原始网络相比的相对计算量。Bit(A/W)表示输入激活(A)和参数(W)的位宽,LayerRatio表示基线网络中观察到的每一层的归一化计算开销。RCprune、RCquant和RChybrid分别表示与通道修剪、量化和混合网络中的基线相比,每层的相对成本。最后,BOPstotal表示建议的混合模型和基线网络的总BOPs。方法位RCOTB2015Prec Succ相对成本(RC修剪)OTB2015conv1conv2 conv3 fc4 fc5FC6总Prec SuccRT-MDNet321.0085.361.9Q40.2082.058.7Q + N(10)40.2083.761.8Q + N(10) + P(15)40.2684.963.110.190.040.090.530.260.490.2284.963.120.320.100.100.530.260.510.2585.262.530.410.160.170.530.260.510.3085.362.540.510.240.270.530.310.520.3787.162.750.620.350.350.630.360.550.4686.762.460.720.500.510.690.460.620.5886.662.7表4:通过在HybRT-MDNet中改变通道修剪比率给出的准确度-计算折衷表2:针对训练目标的烧蚀实验Q、N和P分别表示朴素量化、归一化和修剪在SiamRPN++的OTB结果中,我们给出了论文中报告的分数和重现的准确度。相对成本OTB2015conv1conv2转换3 fc4 fc5FC6总Prec SuccPQ0.320.070.120.530.260.490.2684.963.1QQ0.260.060.060.060.031.000.128.312.1PP0.800.320.780.580.350.580.5886.661.8表3:HybRT-MDNet中量化网络和通道修剪网络的组合分析我们比较了我们的混合表示(PQ)的量化只集成表示(QQ)和修剪只集成表示(PP)。混合transT使用AdamW优化器训练400个epoch(每个epoch 1K次迭代),批量大小为40,其中学习率在250个epoch后衰减10倍测试了SiamRPN++的两个变体,HybSiamRPN++和OnHybSiamRPN++,它们分别对应于基于离线和在线混合表示学习的模型。具体而言,在在线更新阶段,On-HybSiamRPN ++使用从最近20帧收集的数据,每10帧微调源于第一个互相关块的分类分支中的最后一个线性层,进行15次迭代在目标预测之后收集样本特征,并使用与预训练阶段相同的标记策略进行注释我们的算法在PyTorch中使用Intel I7- 6850 k和NVIDIATitan Xp Pascal GPU 实 现 , 用 于 RT-MDNet 和 QuadroRTX 4000用于SiamRPN++和TransT。表5:通过在HybRT-MDNet中改变位宽给出的精度-计算折衷。5.3对加速度的根据[Baskinet al. ,2018],我们测量单位卷积的逐位操作(BOP)的数量,以估计低精度计算的性能优势。对于具有基于K×K内核的{Cin,Cout}输入和输出通道的每个层,BOP由下式给出:BOP=CinCoutK2 ( babw+ba+bw+log2CinK2 ) ,(17)其中ba和bw分别是输入激活和参数的精度。 表1显示了我们的优化方法的效果的逐层分析。所提出的混合表示学习方法通过保持对精度至关重要的一小部分参数来减少计算开销具体来说,我们观察到中 间 层 ( conv 2 -3 和 l2-4 ) 中 修 剪 的 通 道 比 头 部 层(conv 1和l1)和预测层(fc,RPN,att和pred)中的参数更多,这些参数对于训练的稳定性往往是完整的因此,与原始网络相比,具有混合表示的所提出的模型仅需要一小部分BOP(如表1所示的0.26至0.42)5.4混合表示我们分析了建议的混合表示学习中每个组件的影响。请注意,我们使用HybRT-SiamRPN++321.0090.5/87.669.5/66.3Q50.2486.166.5Q + N(10)50.2487.367.1Q + N(10) + P(15)50.3289.568.5位宽2bit3bit4bit5bitPrec84.784.384.985.5Succ59.960.763.163.2+v:mala2277获取更多论文方法位RCOTB无人机123LaSOTVOT 2016VOT2018表6:在几个基准上进行的实验,并与其他竞争性跟踪器进行比较。我们的混合模型(HybRT-MDNet,HybSi-amRPN ++,OnHybSiamRPN++,HybTransT)与其他跟踪器相比具有竞争力的性能,同时其计算成本显着降低。MDNet在VOT-OTB数据集中进行预训练,用于消融研究。每个组件的好处。表2说明了我们的混合表示中每个组件的好处。归一化量化(Q+N)(10)比通过简单量化(Q)的模型实现了更好的准确性,这体现了我们的归一化策略对于稳定量化的有效性此外,混合表示模型(Q+N+P)训练(10)和(15)优于Q+N模型,证明所提出的混合表示学习有效地提高了性能最后,我们的最终模型提出了竞争力的准确性基线模型,同时大大降低了计算成本。量化和修剪的组合。表3显示了量化和修剪网络的几种组合所产生的性能,包括所提出的混合网络(PQ)、修剪网络的集合(PP)和量化网络的集合(QQ)。我们在RT-MDNet基线上进行了这个实验表中的数字表示每一行对应的模型与RT-MDNet基线之间以BOP表示的相对计算成本。结果表明,该混合表示在精度和效率方面具有竞争力,而量化网络和修剪网络的集成分别在精度和计算成本方面性能下降修剪率的影响。表4分析了我们的混合模型的计算成本,通过改变通道修剪率。请注意,我们的模型基于混合表示,保持竞争力的准确性,在这两个措施,精度和成功率,即使修剪近80%的通道。量化位宽的影响。 表5给出了在我们的混合模型中通过改变量化的位宽得到的实验结果。结果表明,当量化位数小于4位时,成功率急剧下降,而精度几乎不受位宽变化的影响。5.5多个基准表6比较了我们的混合网络与传统模型在标准基准测试中 的 视 觉 跟 踪 性 能 , 其 中 SiamRPN++ 和 SiamRPN++(Rep)分别表示我们实验中使用的官方模型及其复制版 本 所 提 出 的 混 合 网 络 , 如 HybRT-MDNet ,HybSiamRPN++,OnHyb- SiamRPN++,和HybTransT实现了竞争性的性能的基线模型,同时显着降低了计算成本(0.29至0.42在RC)。此外,与基线SiamRPN ++相比 , 具 有 在 线 更 新 的 修 改 后 的 Hybrid SiamRPN++(OnHyb- SiamRPN ++)提高了跟踪精度,这意味着我们的在线混合表示学习对流数据的有效性。我们的模型与混合表示的基础上Transformer,HybTransT,也实现了出色的精度与显着降低计算负担。6结论提出了一种适用于流数据的在线混合表示学习的新框架,该框架由一个高效的低比特量化网络和一个精确的轻量级全精度网络组成.采用残差结构,在线混合表示成功地完成了两个模型压缩方法。通过对权值和激活进行有效的归一化处理,进一步提高了基于混合表示的网络的性能。将该算法应用于在线视觉跟踪任务中,验证了该混合表示方法在低比特量化和通道修剪的情况下仍具有与基线模型相当的精度。确认这项工作得到了三星电子公司的部分支持,Ltd.(IO210917 -08957-01),以及IITP资助[2021-0-01343,人工智能跨学科计划(SNU); 2021-0-02068,人工智能创新中心]和NRF资助[2021 M3 A9 E4080782,2022 R1 A2C3012210],由韩国政府(MSIT)。SuccPrecSuccPrecSucc 正常。PREAOEAO原子[Danelljanet al. ,2019年]32-67.187.964.451.551.557.6-0.401DaSiamRPN [Zhuet al. ,2018年]32-65.888.058.679.641.549.60.4110.326MDNet[Nam和Han,2016]32-67.890.952.874.739.746.00.257-RT-MDNet[Junget al. ,2018年]321.0065.088.552.877.230.836.00.3250.176HybRT-MDNet50.2964.588.052.679.529.535.10.3290.194SiamRPN++[Liet al. ,2019年]321.0069.590.560.679.849.357.70.4080.340SiamRPN++(Rep)321.0066.387.657.076.945.654.50.4010.305HybSiamRPN++50.3268.589.559.778.845.953.60.3830.299OnHybSiamRPN++50.3469.489.861.281.846.154.10.4120.344TransT [Chenet al. ,2021年]321.0068.288.366.085.264.273.50.3870.298+v:mala2277获取更多论文引用[Baskin et al. Chaim Baskin , Eli Schwartz , EvgeniiZheltonozhskii , Natan Liss , Raja Giryes , Alex MBron-stein,and Avi Mendelson. Uniq:用于神经网络非均匀量化的均匀噪声注入。arXiv预印本arXiv:1804.10969,2018。[Bulat 和 Tzimiropoulos , 2019] Adrian Bulat 和 GeorgiosTzimiropoulos。Xnor-net++:改进的二进制神经网络。arXiv预印本arXiv:1909.13863,2019。[Che et al. ,2018] Manqiang Che,Runling Wang,YanLu,Yan Li,Hui Zhi,and Changzhen Xiong.视觉跟踪的频道调整。在ECCVW,2018年。[Chen et al. Xin Chen , Bin Yan , Jiawen Zhu , DongWang,Xiaoyun Yang,and Huchuan Lu. Transformer跟踪。在CVPR,2021年。[Danelljan et al. Martin Danelljan,Goutam Bhat,Fa- hadShahbaz Khan和Michael Felsberg。原子:通过重叠最大化的精确率跟踪.在CVPR,2019年。[Fan et al. Heng Fan,Liting Lin,Fan Yang,Peng Chu,Ge Deng,Sijia Yu,Hexin Bai,Yong Xu,ChunyuanLiao,and Haibin Ling. Lasot:大规模单目标跟踪的高质量基准。在CVPR,2019年。[Gao et al. 高希通,赵毅仁,Dudziak,Robert Mullins和Cheng-zhong Xu。动态通道修剪:特征提升和抑制。arXiv预印本arXiv:1810.05331,2018。[He et al. 何开明,张翔宇,任少卿,孙健。用于图像识别的深度残差学习在CVPR,2016年。[He et al. Yihui He,Xiangyu Zhang,and Jian Sun.用于加速非常深的神经网络的通道修剪。在ICCV,2017年。[Hubara et al. Itay Hubara,Matthieu Courbariaux,DanielSoudry,Ran El-Yaniv,and Yoonne Bengio.双神经网络。InNeurIPS,2016.[Jang et al. Eric Jang,Shixiang Gu,and Ben Poole.使用gumbel-softmax进行分类重新参数化。在ICLR,2017年。[Jung et al. Ilchae Jung , Jeany Son , Mooyeol Baek 和Bohyung Han。实时MDNet。在ECCV,2018年。[Jung et al. Sangil Jung , Changyong Son , SeohyungLee,Jinwoo Son,Jae-Joon Han,Youngjun Kwak,Sung Ju Hwang和Changkyu Choi。通过优化量化间隔和任务丢失来学习深度网络。在CVPR,2019年。[Jung et al. Ilchae Jung,Kihyun You,Hyeonwoo Noh,Minsu Cho和Bohyung Han。通过元学习进行实时对象跟踪:高效的模型自适应和单次通道修剪。美国原子能学会,2020年。[Kang and Han,2020] Minsoo Kang and Bohyung Han.使用可区分掩码的操作感知软通道修剪。2020年,《国际反洗钱法》[Kristan et al. Matej Kristan , Ales Leonardis , JiriMatas , Michael Felsberg , Roman Pflugfelder ,LukaCehovinZajc , TomasVojir , Gusta vHager ,AlanLukezic, and Gustavo Fernandez. 视 觉 对 象 跟 踪VOT2016挑战赛结果。在ECCVW,2016年。[Kristan et al. Matej Kristan , Ales Leonardis , JiriMatas , Michael Felsberg , Roman Pfugfelder ,LukaCehovinZajc,TomasVojir ,GoutamBhat,AlanLukezic ,Abdelrahman Eldesokey , GustavoFernandez , and et al. The sixth visual object trackingvot2018 challenge results.在ECCVW,2018年。[Li et al. ,2019] Bo Li,Wei Wu,Qiang Wang,FangyiZhang,Junliang Xing和Junjie Yan.Siamrpn++:具有非常深的网络的暹罗视觉跟踪的演变。在CVPR,2019年。[Mueller et al. Matthias Mueller,Neil Smith,and BernardGhanem.无人机跟踪的基准和模拟器。在ECCV,2016年。[Nam and Han,2016] Hyeonseob Nam and Bohyung Han.学习多域卷积神经网络进行视觉跟踪。在CVPR,2016年。[Park and Yoo ,2020] Eunhyeok Park和 Sungjoo Yoo。Profit:一种用于亚4位mobilenet模型的新型训练方法。在ECCV,2020年。[Qin et al. Haotong Qin,Ruihao Gong,Xianglong Liu,Mingzhu Shen , Ziran Wei , Fengwei Yu , andJingkuan Song.精确二元神经网络的前向和后向信息保持在CVPR,2020年。[Russakovsky et al. Olga Russakovsky , Jia Deng , HaoSu,Jonathan Krause,Sanjeev Satheesh,Sean Ma,Zhiheng Huang , Andrej Karpathy , Aditya Khosla ,Michael Bernstein , et al. Imagenet large scale visualrecognition challenge.IJCV,2015年。[Szegedy et al. Christian Szegedy , Wei Liu , YangqingJia , PierreSermanet , ScottReed , DragomirAnguelov,Dumitru Erhan,Vincent Vanhoucke,andAndrew Rabi-novich. 更 深 的 回 旋 。 在 CVPR , 2015年。[Vaswani et al. Ashish Vaswani , Noam Shazeer , NikiParmar , Jakob Uszkoreit , Llion Jones , Aidan NGomez,Mukasz Kaiser,and Illia Polosukhin.你需要的只是关注。在NeurIPS,2017年。[Wu et al. ,2015] Y. Wu,J. Lim,and M.杨对象跟踪基准。T
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 批量文件重命名神器:HaoZipRename使用技巧
- 简洁注册登录界面设计与代码实现
- 掌握Python字符串处理与正则表达式技巧
- YOLOv5模块改进 - C3与RFAConv融合增强空间特征
- 基于EasyX的C语言打字小游戏开发教程
- 前端项目作业资源包:完整可复现的开发经验分享
- 三菱PLC与组态王实现加热炉温度智能控制
- 使用Go语言通过Consul实现Prometheus监控服务自动注册
- 深入解析Python进程与线程的并发机制
- 小波神经网络均衡算法:MATLAB仿真及信道模型对比
- PHP 8.3 中文版官方手册(CHM格式)
- SSM框架+Layuimini的酒店管理系统开发教程
- 基于SpringBoot和Vue的招聘平台完整设计与实现教程
- 移动商品推荐系统:APP设计与实现
- JAVA代码生成器:一站式后台系统快速搭建解决方案
- JSP驾校预约管理系统设计与SSM框架结合案例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功