没有合适的资源?快使用搜索试试~ 我知道了~
工程科学与技术,国际期刊23(2020)960DCF对象跟踪器中的CNN功能或手工功能?周燕燕,郭宏伟,王东立湘潭大学自动化与电子信息学院,湘潭411105阿提奇莱因福奥文章历史记录:收到2019年2020年3月20日修订2020年5月8日接受2020年6月2日在线提供关键词:目标跟踪DCFCNN猪稳健性A B S T R A C T在DCF框架中,除了DCF跟踪器之外,一个至关重要的组件是所采用的特征映射,特别是当我们需要跟踪器在实际中应用CNN强大的特征图与手工特征(HOG,颜色名称)相比,具有出色的性能,但它使跟踪器速度较慢,无法满足实时场景的需要。在本文中,我们将CNN、HOG和ColorName各自的特征图、过滤器和位置得分可视化,以进行比较。为了平衡跟踪器的准确性和鲁棒性,我们还深入研究了目标标签的细节。在OTB-2015上的实验表明,对于实时应用程序来说,手工特征的性能损失是可以接受的。©2020 Karabuk University. Elsevier B.V.的出版服务。这是CCBY-NC-ND许可证(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍视觉目标跟踪是计算机视觉领域的一个开放性研究课题,它是在给定目标初始位置的情况下,对图像序列中目标的运动轨迹进行对象跟踪在诸如人机交互[1]、最新的机器人服务[2]和交通控制监控[3]等领域中具有许多应用对于这些应用,跟踪器的性能应满足实时性、鲁棒性和准确性的要求。在过去的几年里,视觉对象跟踪有两个主流,深度学习和DCF框架。 随着CNN的发展,高精度跟踪器已经发展[4,5]。即使这些DCF已经取得了很高的性能,但由于跟踪速度较慢,无法应用于实际。如果我们追溯这些跟踪器的发展,很明显可以知道,跟踪器的高性能很大程度上归功于深度特征。而且深特征也是导致跟踪速度较慢的原因。虽然CNN在许多计算机视觉问题(如对象检测)中表现出色,但它对对象跟踪相关性能的改善影响有限。如果我们检查一下关于OTB2015的基准测试[7],一些利用手工制作功能的跟踪器[8,9]仍然获得了有竞争力的性能,尤其重要的是它们可以实时运行,这对于跟踪器在实际场景中的应用至关重要此外,当我们回顾*通讯作者。电子邮件地址:yanzhou@xtu.edu.cn(Y. Zhou)。由Karabuk大学负责进行同行审查关于C-COT[4],ECO[5](高效卷积算子)的方程,我们认为他们基于DCF的公式没有很好地在我们从CNN收集特征图之前,我们需要太多的数据集来推断它们的系数。数据集的质量会影响提取的特征图,就像跟踪器的性能一样在跟踪过程中,CNN的特征提取过程的计算复杂度也很高,这也是速度较慢的原因。本文分析了跟踪过程,可视化并比较了深度特征和手工特征的特征图,为ECO框架下的特征过拟合现象提供了合理的解释。在ECO框架下,CNN的强大功能无法得到充分利用。换句话说,在没有深度特征图的情况下,基于手工特征图的ECO的性能是可以接受的,特别是其跟踪速度是实时的。我们还研究了目标标签细节,以平衡深层CNN特征和浅层手工特征之间的权衡。2. 相关工作对于对象跟踪,DCF从两个方面发展,DCF框架和它们包含的功能。对于DCF的框架,最初,开创性的MOSSE跟踪器[10]被限制为从单个帧进行训练,并动态地适应目标的出现。在此基础上,利用作者的一些独创性,作为非线性内核(KCF)[11],它具有实时特性,https://doi.org/10.1016/j.jestch.2020.05.0032215-0986/©2020 Karabuk University.出版社:Elsevier B.V.这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表工程科学与技术国际期刊杂志主页:www.elsevier.com/locate/jestchY. Zhou等人/工程科学与技术,国际期刊23(2020)960961MD2ð Þ ¼þ ð Þþ ðÞd¼;BT2C2XF22f···-g⊂ ×··· ×HHFBd1k2-εdk2Fd¼1dDi;DLF1真实信道xd2RNd可以理解为索引为xd ½n]的函数Dn¼0DNdPPBHAAPBfBHBfFDpAPy¼BHy-kpC. dTX不不然后,可以联合训练滤波器f和P广泛应用于实际项目中。 [12]《易经》中的“道”,就是“道”。Lished来解决利润问题,通过简单地删除所有系数小于从二次方程EfXajkS. xj-yj2XDkx·f:102第1页函数x m; nlg m=P 2g n=Q 2. 后来的C-COT[4]有效地结合了多维浅层和深层特征通过隐式插值模型映射而ECO[5]多通道卷积运算,Sfxg¼XDfωJ. xd:3跟踪器通过降维、压缩样本空间和稀疏更新策略对C-COT算法进行了改进,解决了C-COT算法样本空间大、计算复杂度高的问题。随着DCF的发展,它使用的特征类型也从HOG[13],颜色名称[14]扩展到CNN[4,5]。虽然准确性有所提高,但准确性是以跟踪器的速度为代价的。对于实际的产品应用,跟踪器的速度在大多数情况下更为重要。随着卷积神经网络的发展,由于其结构的创新性,图像的语义信息在目标检测中得到越来越深入的挖掘。更快的R-CNN[15]将区域建议网络与快速R-CNN结合在一起,通过最近流行的神经网络术语SSD[16]使用多尺度卷积边界框输出连接到包含语义信息的网络顶部的多个特征图,以检测对象。YOLO及其更新版本[6,17,18]通过卷积神经网络强大的语义分析能力,将对象检测框架为需要强调的它们的速度可以满足实时性能,而不需要是通过对所有通道的结果求和而获得的,aj>0是每个样本的权重xj,xd是为了减轻扩展空间支持的周期性假设的缺点[12]。期间跟踪,F。f1;· · ·;fD用于获得跟踪分数在SF。xj=PD1fdωJd. xd.3.2. ECO中的因式卷积算子对于C-COT公式,日益复杂的模型,与大量的可训练系数,已经招致了严重的过拟合和高计算复杂度的风险。ECO减少了滤波器的尺寸,与方法[20]一样。C-COT中过滤器通道的净化可以从矩阵乘积Pf减少。因子分解卷积算子可以表示为,S Pffxg <$Pf ω Jfxg <$ c;dp dc f ωJd x¼fωP Jfxg:140通过最小化以下目标来学习滤波器,我们使用z来表示内插特征图的傅立叶系数更新网络参数。Ef;PkbzPbf-byk2Cc1 kxbωbfk2<$kkPk2ð5Þ3. C-COT和ECO在这里,我们描述了C-COT[4]和ECO[5],ECO实现了为了优化非线性最小二乘问题Eq. (5),ECO采用高斯-牛顿法,通过线性化方程中的残差,(5)采用一阶泰勒级数展开。在VOT 2016挑战赛[19]和OTB-2015[7]中排名第一,与原生相关滤波器跟踪器相比有三个主要优势。首先,提出了因子化卷积算子,大大减少了模型中的参数数量第-^zTPiDP. ^FD^f^^zPi^fi;Di;DTDP^f- 是的^fi^zvecDP6此外,ECO还引入了一个紧凑的生成式训练模型样本分配使样本多样化,用于训练。第三,ECO采用稀疏模型更新策略。用方程Eq.(6)方程Eq.(5)可以表示因为,2E~。^Fi;D;DP k^zTPi^fi;DC- 是的^fi^zvecDP-y^k不L23.1. C-COTPkx^ω^fC2K2 kkPið7Þ与[4]中的符号相同。C-COT旨在基于训练来这里,^f i;K ^^fiD^f,表示克罗内克积。为sample. xjMv. 每个样本xj包含D个要素通道1D简单来说,Eq.(7)可以表示为,.Σ2xj;xj,由HOG、颜色名称和CNN提取。那个...JJEbf;DP¼kAPbfBfDP-byk2kWbfk2lkPDPkF:8由离散空间变量n0;;Nd 1,Nd表示分辨率样本空间可以描述为:vRN1RND。为了训练连续卷积滤波器,C-COT使用隐式插值模型来构造连续间隔为½0;TR的特征映射。隐式插值算子Jd可以表示为:4. 手工制作的功能或深功能?为了更好地理解ECO和C-COT等跟踪器ECO和C-COT都将跟踪问题lem是一个特定的线性方程组,方程。(9)和(10),J. xdtNd-1xd½n]b.t-Tn:101给你bd是插值函数。过滤器f由a“AHA 中国WFPH#”b#“b#F克m个训练样本对的集合。.xj;y最小化.HJH萨布·H1该制剂,ACABCf¼ACy:1000在这里,我们简要介绍C-COT公式,c122我:1999年我fb我962Y. Zhou等人/工程科学与技术,国际期刊23(2020)960×××.ΣJ他们集成的特征图是从VGG-m-2048网络的不同卷积层中提取的[21],该网络使用带有动量的随机梯度下降在ILSVRC-2012上进行训练与简单的手工特征(如HOG和Color-Name)相比,网络的权重非常复杂。对于高维特征,其复杂特征仍然具有较强的代表性,然而,这更多地体现在其分类能力上。如果我们将DCF的相关过程视为全连接层的操作,这意味着高维特征映射需要更多的全连接层。高维特征映射给跟踪过程带来了很大的计算负担,需要求解DCF方程。参考HOG的硬件,学习的特征CNN[25]以及实际应用的深度神经网络模型的细节[26]。HOG硬件每像素能耗分别比AlexNet和VGG-16功能低311和13,486。HOG和VGG-m之间的计算复杂度可以在一定程度上反映出来,大约为100。如表1所示,当我们试图减少关于Conv 5和Conv 1的压缩特征图的维数时,特别是当维数等于压缩HOG维数时,基于VGG-m-2048的跟踪器的准确性不再优于基于HOG的跟踪器。(The表的前三行是压缩特征尺寸,表中的空格表示未使用该特征,每列表示ECO使用的特征)。表1不同特征维度的OPE评分比较生猪10Conv1161412108Conv56456484032OPE0.6680.6590.6590.6340.6220.649通过图1,我们可视化了跟踪过程中的位置得分图,很容易知道VGG-m-2048中的个体特征图与跟踪的手工特征非常相似。稍后,我们将定量地表明它们的跟踪分数非常接近。5. 跟踪中的标签详细信息在ECO框架下,期望输出标签yj被构造为高斯函数的周期重复ex p.-t-l2=2r2π。 在图中。 2,方差r2决定了标签的有效区域,这对于过滤器训练非常重要。在这里,我们对这个值r2的含义做一个详细的讨论.在比较跟踪器的性能时,有两个重要的标准:准确性和鲁棒性。跟踪器的精度是对跟踪过程中目标定位的准确程度的度量,而鲁棒性是对目标成功定位的频率的跟踪器的质量在很大程度上取决于其在跟踪过程中的准确性和鲁棒性由于r2值较小,跟踪过程中的标记模型较尖锐,即只采用目标的一小部分区域,这促进了目标的精确定位,但有丢失目标的而采用较大的r2值时,距离目标样本的面积增大,有助于提高跟踪器的鲁棒性,但有降低其精度的潜在风险然后我们知道r2的值平衡了准确性和鲁棒性之间的权衡。然后,我们认为,对于CNN特征或手工特征,r2的值对跟踪性能具有不同的影响。由于不同功能的复杂性,当我们只在跟踪器中应用CNN功能或手工制作的功能时,r2CNN@150403020100.60.50.40.30.20.1CNN@510-3生猪颜色名称0.30.250.20.150.10.051020304050滤波器24681012102030405010203040505012400.810300.682060.44100.220.6500.5400.4300.3200.20.110501.24010.8300.6200.40.2100.950.90.850.80.750.70.651020304050样本特征50403020100.250.20.150.10.050-0.0524681012121086420.120.10.080.060.040.020102030405050403020100.10.050-0.051020304050504030201010-343210-11020304050评分2468101210203040501020304050图1.一、从左到右的图像是来自CNN的特征图(@1,@5表示VGG-m的第一层和第五层),HOG和颜色名称。虽然样本特征被打乱,但在跟踪器的过滤器下,很明显可以显示目标的大致位置。12501501015400.84086421053020100.60.40.2302010Y. Zhou等人/工程科学与技术,国际期刊23(2020)96096310-31.510.5050艺术方法。实验在Intel(R)Core上进行(R)i5-7300HQ 2.50 GHz CPU,16 GB RAM。由于跟踪器只使用手工特征,所以从图像序列中提取特征图的计算被转移到CPU。在本文中,我们只使用HOG和Color Name特征图,为了轻量级计算和更快的速度,r2的值为1/14。6.1. 基线比较当使用CNN特征图进行跟踪时,其主要计算负担来自通过OTB2015 OPE图二. 示例标签详细信息。在这里,我们分析了11个不同的场景,以利用r2在跟踪器中的效果,基于OTB-2015的基准[7]。11个注释序列属性是照明变化(IV)、比例变化(SV)、遮挡(Occ)、变形(DEF)、运动模糊(MB)、快速运动(FM)、平面内旋转(IPR)、平面外旋转(OPR)、视野外(OV)、背景杂波(BC)、低分辨率(LR)。从表2可以看出,r2的取值对跟踪性能有一定的影响,这一点可以通过OPE分数来反映。对于VGG-m-2048或手工制作功能的单个功能,值的影响是不同的。“conv_10”下划线后面的数字通过前面的分析,我们认为深度特征不适合DCF框架进行跟踪,即使它具有很高的精度。对于实际应用,我们只应用手工制作的功能,以优化准确性和鲁棒性之间的权衡。10.90.80.70.60.50.40.30.20.10表3[0.691]CCOT [0.673]我们的[0.649]DeepSRDCF [0.635]SRDCFDecon [0.627]0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1重叠阈值图3.第三章。OPE在OTB2015上的成功图6. 实验我们的实验基于ECO,它是在Matlab中通过MatConvNet实现的[21]。我们通过对OTB-2015数据集UAV 123数据集[27]进行全面实验,与一些国家的一些最好的跟踪器之间的FPS比较,OPE得分是从OTB测试的2015.跟踪器SiamRPN++ECO我们BACFOPE0.6960.6940.6490.63深度学习YYNN硬件RTX2080TIGTX1060CPUCPU语言PythonMATLABMATLABMATLABFPS4994414表2不同r2值的OPE评分比较:405030402030102010成功率964Y. Zhou等人/工程科学与技术,国际期刊23(2020)960表4对几种最佳跟踪器的FPS进行比较,并对UAV123的OPE进行了测试跟踪器ECOSRDCFSiamRPN钉我们OPE0.5370.4730.5270.4530.517深度学习YNYNN硬件GTX1060CPURTX2080tiCPUCPU语言MATLABMATLABPythonMATLABMATLABFPS831447050复VGG-m-2048网络和共轭梯度法。即使强大的GPU,跟踪速度也是9 fps。(在某些序列上性能相对较好)对于基于手工特征的ECO,仅CPU处理特征图,就可以获得几乎44 fps的帧速率,并且跟踪性能是可以接受的。在本节中,我们与一些最先进的方法进行了比较:ECO[5],CCOT[4],Deep-SRDCF[22],SRDCFDecon[23]、BACF[24]、SiamRPN++[28]、SiamRPN[29]。如图3和表3所示,在OTB-2015数据集中,我们的想法使跟踪器提供0.649的分数,与采用CNN特征的基于ECO的VGG-m-2048相比,仅损失0.042的分数。值得注意的是,我们的跟踪器可以以几乎44 fps的速度运行。在表4中,对UAV123数据集的评估,我们的想法使跟踪器提供0.517的分数,以50 fps运行。6.2. 对初始化10.90.80.70.60.50.40.30.20.1010.90.80.70.60.50.40.30.20.10OTB2015 SRECCOT [0.630][0.626]DeepSRDCF [0.594]我们的[0.588]SRDCFDecon [0.571]0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.91重叠阈值见图4。 SRE在OTB2015上的成功图。OTB2015 TRE[0.697]CCOT [0.691]我们的[0.673]DeepSRDCF [0.665]SRDCFDecon [0.653]0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.91重叠阈值图五. TRE在OTB2015上的成功图。在实际应用中,当跟踪失败时,有很多场景需要强制重启跟踪过程。这些场景与OTB- 2015中的鲁棒性评估相同,可能会使用另一个初始帧、轻微偏置位置和不同尺度进行初始化。两种不同的扰动初始化准则,即TRE(时间鲁棒性评价)和SRE(空间鲁棒性评价)。在TRE内,跟踪器被评估为具有初始化目标的地面实况边界框的20个帧,直到序列结束,就像具有当前地面实况目标的整个序列的一个片段一样。对于SRE标准,跟踪的初始化是通过移动或缩放目标的地面实况边界框来执行的,然后在此序列上运行,并且此过程对数据集中的每个序列重复12次从图如图4和图5所示,很明显,与应用VGG-m-2048功能和手工制作功能的ECO跟踪器相比,我们的想法使跟踪器仅损失0.024和0.042。如果我们考虑到实际应用,鲁棒性的损失是可以接受的,因为它在实时跟踪中几乎是44 fps7. 结论在本文中,我们对DCF框架进行了研究,并对CNN和DCF框架的不恰当融合给出了相对合理的描述,同时对跟踪过程中的滤波器、特征映射和定位分数进行了可视化,验证了我们的猜测。通过比较深度特征(来自CNN)和DCF框架内的手工特征,我们知道深度特征是减慢跟踪过程的主要来源。从实际应用的角度来看,我们只应用手工制作的功能来平衡我们跟踪器的速度和准确性。最后,我们在跟踪过程中微调目标标签,以实现性能增益。竞争利益作者声明,他们没有已知的竞争性财务利益或个人关系,可能会影响本文报告的工作。致谢本课题得到了国家自然科学基金项目(61773330)、湖南省自然科学 基 金 项 目 ( 2017JJ2253 ) 、 上 海 市 自 然 科 学 基 金 项 目(2017JJ2253)、上海市自然科学基金项目(2017JJ2253)、上海市自然科学基金项目(2017JJ2253)的资助。成功率成功率Y. Zhou等人/工程科学与技术,国际期刊23(2020)960965&湖南省教育厅科研项目(17B259)。引用[1] J.O. Wobbrock , J.A. Kientz , 人 机 交 互 研 究 贡 献 , 交 互 。 ( 2016 ) ,https://doi.org/10.1145/2907069。[2] M.Cevzar , T.Petric , J.Babic.服 务 行 业 机 器 人 ( 2018 ) ,https://doi.org/10.1007/978-3-319-61276-8。[3] H. Nguyen,L.M. Kieu,T.温角Cai,Deep learning methods in transportationdomain : a review , IET Intell 。 运 输 单 ( 2018 ) , https://doi.org/10.1049/iet-its.2018.0064.[4] M. Danelljan , A.Robinson , F.S. 汗 , M 。 Felsberg , Beyond correlationfilters:learning continuous convolution operators for visual tracking,Lect.Notes Comput.Sci. ( 包 括 Subser 。 Lect. Notes Artif. 内 特 尔 Lect. NotesBioinformatics)9909 LNCS(2016)472-https://doi.org/10.1007/978-3-[5] M. Danelljan,G. Bhat,F. Shahbaz Khan,M. Felsberthg,ECO:用于跟踪的高效卷 积算 子, 在: Proc -30 th IEEE Conf. Comput. Vis Pattern Recognition ,CVPR 2017,2017,pp. 6931-6939. doi:10.1109/ CVPR.2017.733。[6] J.Redmon , A.Farhadi , YOLOv3 : 增 量 改 进 ( 2018 ) 。 得 双arxiv.org/abs/1804.02767值.[7] Y. Wu , J. Lim , M.H. 杨 , 目 标 跟 踪 基 准 , IEEE Trans Pattern Anal MachIntell。37(2015)1834https://doi.org/10.1109/[8] H.K. Galoogahi,A.Fagg,S.刘文,基于背景感知的视觉跟踪算法,北京大学学报,2001。计算机视觉2017(2017)1144https://doi.org/10.1109/ICCV.2017.129[9] L. Bertinetto,J. Valmadre,S.戈洛代茨岛Miksik,P.H.S. Torr,Staple:用于实时跟踪 的 补 充 学 习 器 , 在 : Proc. IEEE Comput.Soc. Conf. Comput. 可 见 模 式 识 别December 2016,pp. 1401-1409. doi:10.1109/CVPR.2016.156。[10] D.S. Bolme,J.R.贝弗里奇文学士Draper,Y.M. Lui,Visual object tracking usingadaptive correlation filters,in:Proc. IEEE Comput. Soc. Conf. Comput.可见光模式识别,2010. doi:10.1109/CVPR.2010.5539960。[11] J.F.恩里克斯河Cascandy,P. Martins,J. Batista,基于核相关滤波器的高速跟踪,IEEETrans.PatternAnal.马赫内特尔37(2015)583https://doi.org/10.1109/TPAMI.2014.2345390[12] M. Danelljan,G.Hager,F.S.汗,M。Felsberg,学习空间正则化相关滤波器用于 视 觉 跟 踪 , Proc.IEEE 国 际 Conf.Comput.目 视 ( 2015 ) ,https://doi.org/10.1109/ICCV.2015.490。[13] N. 达拉尔湾Triggs,用于人体检测的定向梯度直方图,在:Proc.-2005 IEEEComput.Soc. Conf. Comput. 目 视 模 式 识 别 , CVPR 2005 , 2005 年 。 doi :10.1109/CVPR.2005.177。[14] J. van de Weijer,C. Schmid,J. Verbeek,D.林志光,“颜色命名的学习与应用”,国立成功大学计算机科学系. 18(2009)1512doi.org/10.1109/TIP.2009.2019809[15] S. Ren , K. 赫 利 河 Girshick , J. Sun , Faster R-CNN : towards real-time objectdetection with region proposal networks,IEEE Trans. Pattern Anal. 马赫 内特尔39(2017)1137https://doi.org/10.1109/TPAMI.2016.2577031[16] W. Liu,L.安格洛夫,D.埃尔汉角塞格迪,S。Reed,C.Y.福,阿.C.Berg,SSD:单次发射多盒探测器,收录于:Lect.Sci.(包括Subser。Lect. Notes Artif.内特尔生物信息学讲义),2016年。doi:10.1007/978-3-319- 46448-0_2。[17] J. Redmon,S.迪夫瓦拉河Girshick,A.你只看一次:统一的,实时的目标检测,在:IEEE计算学报. Soc. Conf. Comput.目视模式识别,2016年,页779-788. doi:10.1109/CVPR.2016.91。[18] J. Redmon,A. Farhadi,YOLO 9000:更好,更快,更强,在:Proc. -30 th IEEEConf. Comput.目视模式识别,CVPR 2017。2017年1月,pp。6517- 6525 doi:10.1109/CVPR.2017.690。[19] M. Kristan ,A. Leonardis,J. Matas,et al. The Visual Object Tracking VOT2017 Challenge Results , in : Proc. - 2017 IEEE Int. Conf. Comput. Vis WorkICCVW 2017,2018. doi:10.1109/ICCVW.2017.230。[20] S.维亚斯湖Kumaranayake,《构建社会经济地位指数:如何使用主成分分析》,卫生政策计划。10.1093/heapol/czl029.https://doi.org/[21] A. 韦 达 尔 迪 湾 Lenc , MatConvNet : Convolutional neural networks forMATLAB,in:MM 2015 -Proc. 2015 ACM Multimed.会议,2015. doi:10.1145/2733373.2807412。[22] M. Danelljan,G. Hager,F.S.汗,M。Felsberg,基于相关滤波器的视觉跟踪的 卷 积 特 征 , 在 : Proc.IEEE 国 际 Conf. Comput. 可 见 , 2016. doi :10.1109/ICCVW.2015.84。[23] M. Danelljan,G.Hager,F.S.汗,M。Felsberg,训练集的自适应去污:用于区分性视觉跟踪的统一公式,在:Proc. IEEE Comput.Soc. Conf. Comput.目视模式识别。December 2016,pp.1430-1438. doi:10.1109/CVPR.2016.159。[24] H.K. Galoogahi,A. Fagg,S. Lucey,Learning Background-Aware CorrelationFilters for Visual Tracking , in : Proc. IEEE Int. Conf. Comput. 可 见 , 2017.doi:10.1109/ICCV.2017.129。[25] A. Suleiman , Y.H. Chen , J. Emer , V. Sze , Towards closing the energy gapbetween HOG and CNN features for embedded vision(Invited paper),in:Proc.- IEEE国际Symp. 电路系统:2017年。doi:10.1109/ISCAS.2017.8050341。[26] S.古湖,澳-地Rigazio,深度神经网络架构的实际应用分析,Iclr。(2017)1-9。[27] M. Mueller,N.史密斯湾,澳-地Ghanem ,无人机跟踪的基准和模拟器,在:Eccv,2016年,pp. 445-461. doi:10.1007/978-3-319-46448-0_27。[28] B. Li,W.吴角,澳-地Wang,F. Zhang,J. Xing,J. Yan,SiamRPN++:使用非常深的网络进行暹罗视觉跟踪的演变(2018)。http://arxiv.org/abs/1812.11703。[29] B. Li,J. Yan,W. Wu,Z. Zhu,X. Hu,High Performance Visual Tracking withSiamese Region Proposal Network,in:Proc. IEEE Comput. Soc. Conf. Comput.目视模式识别,2018年,页8971-8980。doi:10.1109/CVPR.2018.00935。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- OptiX传输试题与SDH基础知识
- C++Builder函数详解与应用
- Linux shell (bash) 文件与字符串比较运算符详解
- Adam Gawne-Cain解读英文版WKT格式与常见投影标准
- dos命令详解:基础操作与网络测试必备
- Windows 蓝屏代码解析与处理指南
- PSoC CY8C24533在电动自行车控制器设计中的应用
- PHP整合FCKeditor网页编辑器教程
- Java Swing计算器源码示例:初学者入门教程
- Eclipse平台上的可视化开发:使用VEP与SWT
- 软件工程CASE工具实践指南
- AIX LVM详解:网络存储架构与管理
- 递归算法解析:文件系统、XML与树图
- 使用Struts2与MySQL构建Web登录验证教程
- PHP5 CLI模式:用PHP编写Shell脚本教程
- MyBatis与Spring完美整合:1.0.0-RC3详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功