没有合适的资源?快使用搜索试试~ 我知道了~
31××××基于神经网络的鲁棒全息人脸检测Mohsen Imani1人、Ali Zakeri1人、Hanning Chen1人、TaeHyun Kim2人、Prathyush Poduval3人、Hyunsei Lee4人、Yeseong Kim4人、Elaheh Sadredini5人和Farhad Imani6人1加州大学欧文分校、2釜山国立大学、3印度科学研究院、4大邱庆北科学技术学院、5加州大学河滨分校、6康涅狄格大学通讯作者:m. uci.com摘要人脸检测是计算机视觉中许多任务的重要组成部分,有着广泛的应用. 然而,现有的深度学习解决方案对于在嵌入式平台上实现人脸检测来说非常缓慢和低效。在本文中,我们提出了HDFace,一个新的框架,高效和强大的人脸检测。HDFace利用超维度计算(HDC)作为神经启发的计算范例,其模仿重要的大脑功能以实现高效和噪声容忍计算。我们首先开发了一种新的技术,使HDC执行随机算术计算的二进制超向量。接下来,我们扩展了这些算法的高效和强大的处理的特征提取算法在超空间。最后,我们开发了一个自适应高维分类算法,有效和强大的人脸检测。我们评估了HDFace在大规模情感检测和人脸检测应用中的有效性。我们的研究结果表明,与在CPU(FPGA)上运行的神经网络相比,HDFace平均分别提供了6.1(4.6)的加速比和3.0(12.1)的能效ACM参考格式:Mohsen Imani1分、Ali Zakeri1分、Hanning Chen1分、TaeHyun Kim2分、PrathyushPoduval3分、Hyunsei Lee4分、Yeseong Kim4分、ElahehSadredini5分和Farhad Imani6分。2022.用于鲁棒和全息人脸检测的神经计算。在第59届ACM/IEEE设计自动化会议(DAC)(DAC'22)的会议记录中,2022年7月10日至14日,美国加利福尼亚州旧金山。ACM,美国纽约州纽约市,6页。https://doi.org/10.1145/3489517.35306531引言人脸检测是许多计算机视觉应用的重要组成部分,例如用于监视的人脸跟踪[1]、人脸识别[2]、情感检测[3]、人脸重新照明和变形[4]以及人脸形状重建[5]。人脸检测在人机和人机交互系统中也有一些应用例如,最近的数码相机和商用机器人(例如,Nao[6])带有嵌入式人脸检测模块。此外,人脸检测经常用于图像/人物标记。深度神经网络(DNN)使用昂贵的卷积层作为可训练的特征提取机制。由于其显著的训练成本,人脸检测算法通常依赖于静态特征提取方法。流行的特征提取是预训练的卷积层、方向直方图(HOG)[7,8]、尺度不变特征变换(SIFT)[9]、局部二进制模式本作品在知识共享下许可署名-非商业性使用-相同方式共享国际4.0许可协议。DAC© 2022版权归所有者/作者所有ACM ISBN978-1-4503-9142-9/22/07。https://doi.org/10.1145/3489517.3530653(LBP)[10]。所有这些特征提取都基于一组算术运算并且旨在提取知识(例如, 形状和边缘)。尽管在人脸检测领域取得了成功,但现有的人脸检测算法存在两个主要挑战:(1)它们依赖于昂贵的特征提取和学习算法。在现有的嵌入式平台上运行这些算法(例如,设备有限的功率预算)导致缓慢和低效的计算。(2)今天例如,随着技术的扩展,硬件和网络都变得非常不可靠。不幸的是,机器学习算法对这种噪声和故障的鲁棒性非常低[11]。在本文中,我们提出了HDFace,一种新的高效和鲁棒的人脸检测算法。为了实现实时性能和鲁棒性,我们使用更接近人脑模型的策略重新设计算法。我们利用神经启发的多维计算(HDC)作为替代范例,其模仿重要的大脑功能以实现高效和噪声容忍计算[12,13,14,15]。HDC的动机是观察到人类大脑对高维数据表示进行操作在HDC中,对象因此被编码为高维向量,称为超向量[16]。HDC将学习能力与存储/加载信息的典型记忆功能结合在本文中,我们在HDFace框架中利用HDC有两个主要目的:作为特征提取的预处理方法我们已经开发了一种新的技术,使HDC执行算术计算。受随机计算的启发,我们设计了一个支持高维随机算法的框架。我们的框架不是对原始数据进行操作,而是使用二进制全息hypervec-tor表示每个像素值,其中信息存储在神经模式中。我们accordingly使算术运算在这些超向量使用高效和高度并行的操作。最后,我们扩展了HDC算法,使其完全支持超空间中的特征提取算法。我们开发了一个有效和鲁棒的多维人脸检测算法我们的算法直接对从特征提取中提取的高维特征进行操作.由于特征提取器已经生成超向量,因此不需要HDC编码来将数据点映射到高维中。我们的HDFace框架提供了几个优于计算学习的优点:(1)高度并行,适合在线设备上学习,(2)暴露隐藏的特征,只需几个样本即可实现单次学习,(3)对噪声和损坏的数据具有鲁棒性。我们对大规模数据集的评估表明,HDFace提供了更好或相当的准确性,以国家的最先进的人脸检测算法,提供显着更高的效率和鲁棒性。我们的研究结果表明,HDFace提供,··32× × ××(HH)±+(H H)(H H)−−与运行在CPU(FPGA)上的DNN相比,平均分别有6.1和3.0(4.6和12.1)的加速比和能量效率。此外,我们的框架提供了比DNN至少高一个数量级的计算鲁棒性。2背景和动机超维计算(HDC):是基于这样一种理解,即大脑利用神经活动模式进行计算,不容易与数字联系 由于大脑回路的大小,神经模式可以用hypervec- tors建模[12]。 HDC建立在具有随机超向量的一组定义良好的操作之上,在存在故障的情况下非常鲁棒,并提供了一个完整的计算范例,可以轻松应用于学习问题[17,18,19,20,21,22]。 存在大量不同的、几乎正交的超向量,其维度数以千计。这让我们可以使用定义良好的向量空间运算来组合这些超向量,同时以高概率保持两者的信息[15,23,24]。超向量包含所有信息,这些信息以完整的整体表示形式组合并分布在其所有组件中,因此没有任何组件比另一个组件更负责存储任何信息。特征提取:有多种现有的特征提取机制用于人脸检测。特征提取的一个示例是定向特征直方图(HOG)、类HAAR特征提取和卷积。尽管在功能的差异,这些特征提取方法操作在一个类似的一组算术运算。作为一个例子,这里我们解释HOG作为流行的特征提取机制之一的功能[7,8]。HDC&特征提取:虽然HDC在抽象信息的推理和关联方面非常强大,但在复杂数据的特征提取方面却很弱,例如,图片/视频。因此,大多数现有的HDC解决方案都在昂贵的预处理数据上运行[25,14,26]。这种特征提取通常占用总学习成本的很大一部分更重要的是,由于特征提取是在原始数据表示上运行的,因此它们对噪声和故障具有高敏感性例如,我们在大规模人脸检测上评估HDC [27]。我们使用HOG作为特征提取机制。我们对ARMA53 CPU的评估表明,HoG占用了总训练时间的85%以上此外,2%的随机比特错误的HoG特征提取导致12%的质量损失,而HDC模型是显着的抗噪声。3HDFACE概述在本文中,我们介绍了HDFace,一个强大的和高效的大脑启发的框架,人脸检测在高维空间。图1示出了由三个主要块组成的HDFace框架的概述:(a)基本超向量生成,(b)HDC特征提取,以及(c)HDC分类。在下文中,我们将解释每个步骤的一般功能基本超向量生成:HDFace不是在原始二进制表示上操作,而是将相关超向量给像素值。让我们假设一个黑白图像。在传统的二进制数据中,颜色使用0两种极端的颜色(图1a)。例如,白色和黑色被分配给两个随机超向量H→���和H→���,其中超向量属于{0,1}���。 这些超向量具有几乎正交的表示���→���,→���0。我们使用矢量量化来生成表示中间颜色值的相关超矢量。例如,具有2-1值的像素(其中是位精度)将从黑色中获得一半的尺寸,从白色超向量中提取一半,生成相关超向量,���→2���1,→������→2���1,→���0。5. 使用abovevectorquantitation,我们将分配一个表示每个像素的超向量HDC特征提取:我们开发了多维算术运算,可以用于处理超空间中的整个特征提取。我们的方法支持随机的加法,减法,乘法,除法和比较长的二进制向量操作(图1b)。我们的随机操作是高度并行和高效的,具有显着的鲁棒性噪声。在第4节中,我们介绍了HDC算术运算的细节。HDC学习:我们开发了一个超维学习算法,对提取的特征进行操作,以实现高效和鲁棒的学习(图1c)。与需要昂贵编码的现有HDC学习方法不同,我们提取的特征已经在高维空间中因此,它们可以直接用于超维学习。我们的HDC学习是基于“脸”和“无脸”作为两个超向量的分类 我们的学习框架消除了每个超向量中的冗余信息记忆,以消除过拟合。对于给定的查询,我们首先将数据映射到高维空间。编码查询和HDC模型超向量之间的相似性搜索将返回预测结果。详情见第5节。我们的框架提供了:(1)一个端到端的框架,用于在原始图像数据上进行完全基于HDC的人脸检测,(2)高计算鲁棒性,因为整个应用程序(包括特征提取器)可以从全息数据表示中受益,以及(3)由于HDC使用并行逐位操作重新访问复杂特征提取,因此具有显著的效率。4HDFACE随机基元4.1HDC支持的操作HDC编码基于一组定义的原语[12]工作我们的目标是利用相同的原语来定义HDC向量上基于SC的算术运算[15]。 HDC是一种代数结构;它使用搜索以及几个关键操作(及其逆操作):在超向量添加期间充当记忆的Bundling(+)、关联多个超向量的Binding(*)以及 通过执行单个旋转移位来保留位置的Permu- tation()。HDC超向量生成:我们生成一个随机的超向量,元素为1,使得1有概率出现 。这将允许我们通过维向量来构造任意数字的HDC表示���。在我们的HDC系统中,信息以±1的分量存储。 我们将随机HDC向量V→1固定为基向量。一个随机的HDC向量V→V(V∈[−1,1])被称为reep resentthenumber berV,如果���(V→V,V→1)=V。我是康西斯-用我们的符号V→1表示,这意味着V→1表示到2−1,其中是位精度。���例如,在Rep=8位Rep中,数字ber1. 注意,根据我们的记录,V→=−V→。表示,白色和黑色分别得到0和255值相似性度量:−→���→,相比之下,HDFace根据其颜色将每个像素分配给超向量我们分配两个随机超向量,两个HD向量V1和V2之间的相似性定义为:V→1,V→2)=V→1·V→2,其中R是HD向量的个数������33相对误差(10- 2)(·)VVVVVV–•VV//由下式给出:=(2,1−0,1���VV/2广告 位=���1, 2−���/2. 两HDC分类图1:HDFace框架概述:(a)基本超向量生成,(c)基于HDC的特征提取,(c)HDC学习是向量点积运算符。HDC sup-5端口的其他相似性度量,如汉明相似性,测量两个HDC向量不同的维度34.2算术运算1加权平均:此操作构造加权平均值,平均误差乘法误差795735311如果给定两个随机HDC向量V→���和V→���,其相应的权重{���,���}∈[0,1](���+���=1)是有效的,则两个卷的年龄。我们通过选择每一个组合,构造了n=nV→nV→n���2K4K6K8K 10K2K4K6K8K10K2K4K6K8K10K尺寸(D)尺寸(D)尺寸(D)图2:错误(a)建设,(b)平均,(c)两个数字之间的乘法。随机概率为n和n的p从om→n或n→n,r∈c-���很好V→α,β���. 要计算此单元格对直方图的贡献构造:在HDFace框架中,我们给出了两个随机向量→0和→1,它们分别代表当前数0和1。使用加权平均运算,我们可以构造代表-将任意数b∈[−1,1]表示为V→n=n+21V→1n���我们需要遵循一个三步骤的过程。计算梯度:我们需要计算梯度向量���在lo阳离子(1,1)处的(像素)的k →=(k,k)。������������1−2���(−V→1)。由于n∈[0,1],我们有1±2n∈[0,1],因此在HD空间中使用V→N=V→((n =2,1-n =0,1))/2=找到e(ntscan)be上的comp���V→100,100���−V→V1,0且V→=V→(1,2−1,0)/2=V→1,2���������−V→V0,1乘法:我们可以将两个HDC表达式V → V相乘���和V→���来构造V→������。如果b的n阶维数V→n和V→n���后期V→=(V→<$V→)<$(V→<$V→)。接下来,我们执行ar eequal,则设V→成为那个102+1022V→1。另外,将V→λ的相应维数设为���求这个向量的平方根,得到V→V���2+���2。请注意,这与V→-1。We表示乘法运算V→V→V=21→������。平方根:在HOG过程中,我们需要计算向量的大小为此,我们需要最后一个操作来执行positiveNumberers的平方根。 也就是说,给V→���我们想构造→V���。为此,我们提出了一种类似于除法的二元搜索方法.• 定义V→=V→0和V→=V→1������������从梯度的真实幅度乘以102的系数,然而,它不会影响最终的HOG特征,因为所有的值将被均匀地缩放。计算角度仓:HOG预处理的最后一步是找到我们需要放置梯度向量幅度的角度仓然而,如果我们在HD操作方面执行它,这是最复杂的步骤原始的方法是找到梯度向量的角度,使用θ=arctanθθ。然而,• 定义V→���=0。5V→���������10V。5V→和V→2=V→V→���������反正切在房屋署内,• 如果V→V2>V→V3,则执行V→V2���������• 如果V→2V→,则执行V→→V→���������从第2步开始重复,直到→102=→100达到统计误差范围因此,我们构造了edV→ε=V→εε4.3使用HDC的为了对图像进行HOG处理,我们首先对图像特征向量进行归一化,使每个值都在0和1之间。这是因为我们设计中的HD向量只能存储1和1之间的值。然后,我们考虑一个3× 3像素单元,������ℎrow and��� ������ℎ column has value������,��� (���,���=0,1,2).首先,我们生成所有像素的HD表示,并将其标记为框架. 作为一种变通方法,我们使用tan函数在特定范围内是单调函数的事实假设������是bin的边界,其中���= 1,2,3,4,..,七八我们首先构造了自相关向量V→tanθ��� V→cot������。 考虑科特������的理由很快就会清楚了。Next,weevaluate→���和���→定位在梯度向量所在的特定象限上(基于它们的符号)。最后,我们考虑位于象限中的所有边界found. 我们的目标是找到我们需要添加幅度以构建直方图的适当角度仓 为了避免计算困难,我们也添加了点 2和3 2作为边界,因为tan函数在这些点处爆炸并改变符号,并且不再单调。如果垃圾在垃圾桶里,如果满足象限,则满足象限1+1 < <这相当于H随机超向量BHW随机a基超向量生成bHDC特征提取HDCH3H2面对情绪检测检测查询超向量HDC模型C施工误差编码用于求平均的相应权重是正的。34++--| |��� |1|������|−���|������|然后,H表1总结了评价的数据集。试验台架-→标记的范围从情感检测到两个大规模的面部识别,表1:数据集(:图像大小,:类别数量串大小描述情绪面148× 48736,685 面 部 情绪检测[31]1024×1024 2[32]第32话最后一句话图3:HDFace训练用于准确分类。tantantan1. <<如果它在四分之一或四分之一象限,则对应关系为tan1tantan。 <<请注意,tanθ和cotθ的值是已知的最后,我们需要一些方法来比较tanδ=/仅���给出了向量V→������、V→������、V→���和V→1/���。电话:+86-512 - 512 -512522,441人脸检测[27]6评价6.1实验装置我们开发了一个基于PyTorch的多维人脸检测库,支持所有随机算法和学习操作。我们还设计了一个基于PyTorch的周期精确模拟器[28],它在分类过程中模拟HDFace在Cortex A53 CPU和Kintex-7FPGA两个嵌入式平台上实现了HDFace训练和测试。对于FPGA,我们使用Verilog设计HDFace功能,并使用Xil进行综合让我们写/= ||/||和 = | |哪里 和表示相应的符号。如果| |<1、求出数量 =��� |������|−���|������|-是的如果tan>0,则tan>0,如果tan>0,则tan> 0,并且[29]第二十九话:综合代码已在Kintex-7 FPGA KC 705评估套件上实现我们确保我们的效率高于自动化FPGA实现2tan=否则但是,可以计算出在[30]。对于CPU,HDFace代码是用C++和op-当V→���=0时。5(���V→������)≤0. 5(−V→���× |������|)。通过对V→V进行赋值,我们可以性能优化该代码已在Rasp-berry Pi(RPi)3B+上使用ARMCortex A53 CPU实现模拟器col-求出k的值,并使用它进行比较。A BOVE,我们选择了���|������|−���|������|becauseisanumberberbet ween-1and1. 但是,如果(|���|>1. 在t)他的我们定义10V1×⊕=|2V=0。5在运行学习过程时,选择执行时间并测量每个连接平台的功率 耗电量由Hioki 3337型电能表采集。0。5(−���V→|������|)| |保护数据集,其中包括数十万张图像面部和非面部数据。我们使用HoG作为特征提取图2显示了不同操作期间的HDFace相对误差行动。结果报告的建设,平均,乘法运算。我们的评估表明,相对错误率随着超向量维数的增加而降低。这些错误率可以很容易地扩展到使用随机算术运算来分析不同特征提取方法的错误率例如,可以在每个维度上估计HOG错误率这与应用程序级别的鲁棒性分析一起确定了确保准确性的合适维度5超维人脸检测我们利用超维学习直接对编码数据进行操作。图3显示了HDC分类的概述HDC接收原始图像数据。在使用我们的基于HDC的特征提取器处理图像之后,预处理的数据已经在高维空间中。这些数据将被提供给我们的自适应训练模块,为每个类生成一个超向量。在推理过程中,每个给定的测试图像将通过相同的特征提取器。然后,生成的超向量,称为查询超向量,将与所有类超向量进行比较具有最高相似性的类将被选择作为预测结果。在下文中,我们提供关于HDC分类步骤的更多细节。HDC在学习过程中识别常见模式,并在单遍训练过程中消除类超向量的饱和。在推理中,HDC分两步检查每个编码测试数据与类超向量的相似性 第一步骤对输入进行编码以产生一个奇异的矢量H→。 然后计算 →与所有类超向量的相似度。 查询数据获得具有最高相似性的类的标签。所有图像数据的机制6.2HDFace学习精度最先进的学习算法:我们将HDFace分类准确性与最先进的学习算法进行了比较,包括深度神经网络(DNN)和支持向量机(SVM)。所有的学习模块使用相同的HOG功能提取,他们进行了优化,以提供最大的准确性。我们的HDFace结果在三种不同的算法中报告:(1)在原始空间上运行的HOG特征提取在这种配置中,HDC利用非线性编码器将前向特征映射到高维。(2)基于随机超维表示的HOG运行对于HDC,我们使用相同的维度( = 4 )进行特征提取和学习。在这种配置中,HDC学习直接发生在提取的特征(高维)上,没有编码模块。我们的评估表明,HDC,无论特征提取,提供更好的准确性比国家的最先进的算法。例如,HDC的准确率平均分别比DNN和SVM高3.9%和10.4% 我们的研究结果还表明,我们的随机高维特征提取提供了相同的检测质量的原始空间中的特征提取。6.3HDFace在不同网络中的应用图5a显示了维度对HDFace分类准确性的影响 当预处理和学习的超向量维度从���= 1���到���= 10时,报告结果 。一般来说,HDC准确度随着hypervec-tor维数而增加。这种准确性的提高来自于:(1)增加每个超向量的学习和记忆能力高维数据测试数据集编码查询h Dh2H1相似性HDC-基于特征提取余弦HDC适应性训练C1DC2 DC12 C11δ 1C22 C21δ 2CkDCk2 Ck1δ k训练模型训练数据集Max350.90.41.3一尺寸(D)尺寸(D)××××××× × ××100806040SVMDNNHDFace(学习)HDFace(HOG+Learn)图4:HDFace分类精度与最先进的学习技术的比较。培训业绩(第二)1009080706050100908070605040B0.5k1k2k4k6k8k 10k情绪面1面2情绪面1面2630.5k1k2k4k 6k 8k 10k0训练表演(第二)630惊喜中性快乐中性Surp上升D=4k惊喜中性快乐中性Surp上升D=10k(b)情感检测图6:(a)可视化HDFace维度对(a)面部检测(b)情绪检测的影响一个图像的位置作为一个脸。 当维数超过���= 4时,这种错误预测不会发生 。 图6b还可视化了HDFace的情感检测能力。我们的研究结果表明,HDFace可以正确地识别情绪使用hypervec-tors与大尺寸(λ=4λ和更大)。然而,当维数降到���= 1时,预测会有误差 .图5:(a)维度对HDFace准确性&培训业绩。(b)DNN配置对分类精度和训练性能的影响信息,(2)实现更准确的特征提取,以及(3)减少高维中过拟合的机会由于HDC操作在冗余表示上,因此它对降维具有天然的我们在图5a中的结果表明,HDFace在使用=4维度时提供了最大的准确性 使用更长的维度会导致精度饱和。图5b显示了使用不同网络配置的DNN精度。 我们使用四层神经网络,其中两个隐藏层可以获得不同的大小(如图5b的x轴所示)。 我们的研究结果表明,DNN得到最大的准确性,使用-ING 1024 - 1024 隐藏层的神经元。然而,该精度仍略低于HDFace在其最佳配置下提供的最大精度( = 4 )。图5中的热图比较了HDFace和DNN训练不同配置的性能。虽然HDFace确保了 = 4 维的最大精度,但DNN使用10241024大小的隐藏层来实现其最大精度。我们比较了HDFace和DNN在这些配置中的效率我们的研究结果表明,HDFace的训练速度明显快于DNN。例如,在HDFace中训练单个epoch需要0.9秒,而DNN需要5.4秒才能在嵌入式CPU上训练。6.4HDFace质量承诺图6a直观地比较了使用不同维度的超向量的HDFace的面部检测精度。当HoG特征提取的窗口以重叠方式在图像上移动时,报告结果。如果HDFace在该窗口上检测到人脸,则每个窗口都将显示蓝色我们的研究结果表明,HDFace可以准确地检测人脸时,维数是大的。在我们的示例中,D=1k维的HDFace错误地预测了一些6.5不同平台的效率图7显示了HDFace与DNN在ARM Cortex A53嵌入式CPU上的计算效率我们的研究结果表明,HDFace提供了显着更高的计算效率比DNN,特别是在训练阶段。 我们的评估表明,HDFace的训练平均快6.1,3.0比DNN更高效图7a还比较了HDFace我们的评估表明,在所有测试的应用HDFace-执行DNN这种效率来自HDFace数据表示以及HDC FPGA包含大量轻量级查找表(LUT)资源,可用于加速HDC特征提取和学习。相比之下,处理原始数据表示的HOG和DNN依赖于高精度算法,需要使用FPGA的昂贵DSP资源来处理我们的研究结果表明,HDFace在相同的FPGA平台上运行时,与DNN相比,平均实现了4.6的加速比和12.1的能源效率。图7b比较了HDFace和DNN在干扰期间的效率与训练不同,HDFace 我们的评估表明,HDFace的推理平均比在FPGA(ARMCPU)上运行的DNN分别快2.9和2.6(1.4和1.7),更节能。6.6HDFace稳健性表2比较了HDFace和DNN对随机比特错误的鲁棒性对于DNN,当使用具有16位、8位和4位模型精度的网络时报告结果我们的研究结果表明,DNN的准确性和鲁棒性之间存在权衡对情绪面1面2情绪面1面26.32.17.9D=1kD=2k(a)人脸检测D=4kD=10k惊奇生气高兴害怕惊奇D=1k惊喜 伤心快乐中性惊喜D=2k准确度(%)准确度(%)准确度(%)36情感面1面2能源效率(DNN@CPU=1)加速比(DNN能源效率(DNN@CPU=1)10 1010101111HDC(@CPU)DNN(@FPGA)HDC(@FPGA)(a) DNN vs HDC训练(b)DNN vs HDC推理图7:在(a)训练和(b)推理期间,HDFace和DNN在CPU和FPGA上的加速和能效表2:DNN和HDFace对随机噪声的鲁棒性错误率0%百分之一百分之二百分之四百分之八百分之十二百分之十四16位0%2.8%4.8%8.1%百分之十三点八百分之二十三点四百分之三十九点八DNN8位1.6%3.8%5.1%7.2%百分之十点六16.0%百分之二十四点七4位2.7%4.1%4.7%5.4%6.5%8.1%百分之十点二HDFace+HoG+了解HDFace+了解D=10kD=4kD=1kD=10kD=4kD=1k0% 0% 0% 0% 0.6% 0.9% 1.2%0%0%0.2%1.2%1.8%2.0%2.8% 2.8% 3.4% 3.9%5.3% 6.0% 6.9%0% 1.8% 3.2% 5.5%百分之九点一17.3%29.2%0% 2.3% 3.5% 5.2%7.8%12.1% 19.0%2.8% 百分之三点五 4.1% 4.9%6.1% 7.5%9.3%一方面,DNN需要高精度的权值来保证最大的分类精度。例如,具有4位精度模型的DNN提供比8位和16位模型低1.1%和2.7%的精度另一方面,DNN的鲁棒性随着模型精度而降低高精度表示中的错误会显著改变DNN权重值,从而导致即使是轻微的噪声也具有高灵敏度。例如,12%的随机误码率可能导致DNN中4位和16位分别有8.1%和23.4%的质量损失。相比之下,HDFace对随机噪声具有显著的鲁棒性在HDFace中,超向量具有冗余的全息表示,其中所有超向量元素相等都对计算有贡献。这提供了对超向量元素上的噪声和故障的自然鲁棒性在选择合适的HDFace尺寸时有三个方向的权衡低维HDFace模型是高效计算的理想然而,该模型导致较低的分类精度,并降低了模型对可能的噪声的鲁棒性。例如,HDFace在���= 1���维中提供的精度比���= 4���维低2.8%。虽然HDFace具有n=4的维数提供了准确性和效率之间的最佳折衷,但仍然可以通过增加维数来增强模型表2还示出了当在原始数据表示上处理HoG特征提取时HDFace对比特错误率的鲁棒性 我们的研究结果表明,处理原始数据表示的特征提取完全消除了我们的多维模型的优势。第七章结论在本文中,我们利用高维计算的高效率和噪声容忍的人脸检测。首先,我们开发了一种新的技术,使HDC执行随机算术计算的二进制超向量。接下来,我们扩展了这些算法,有效地处理超空间中的特征提取最后,我们开发了一个自适应分类算法,有效的和强大的人脸检测。我们的评估表明,HDFace:(1)高度并行,适合在线设备上学习,(2)在几次迭代中暴露隐藏的特征,(3)对噪声和损坏的数据具有鲁棒性确认这项工作得到了国家科学基金会#2127780、半导体研究公司(SRC)任务#2988.001、海军研究办公室(ONR)资助#N00014-21-1-2225、空军科学研究办公室以及思科慷慨捐赠的部分支持引用[1] P. Zhou et al. ,CVPRW。 IEEE,2017,pp. 1831-1839年。[2] X.He 等 人 , “Face recognition using laplacianfaces,”IEEE transactions onpatternanalysisandmachineintelligence,vol. 27岁不第3页。328[3] D. Reney和N.Tripathi,在CSNT。IEEE,2015,pp.493-497.[4] Z. Wen et al. ,2. IEEE,2003,pp. II-158。[5] P. Dou等人,CVPR,2017,pp. 5908-5917[6] S. R. Reyes等人,“通过面部表情检测和识别七种情绪:将机器学习算法集成到nao机器人中”,ICCRE。IEEE,2020,pp. 25比29[7] O. Déniz等人,recognition letters,vol.32岁,不。12,pp.1598[8] A. Adouani等人,“视频序列中人脸检测的Haar类、hog和lbp方法的比较”,SSD。IEEE,2019,pp.266-271。[9] T. Lindeberg,[10] C. Rahmad等人,IOP,2020年。[11] A. S. a. O. Rakin,搜索,[12] P. Kanerva,“超维计算:高维随机向量的分布表示计算介绍”,认知计算,第1卷,第2期,第10页。139[13] A. Hernán-Cano等人,三维学习系统,IEEE,2021,pp.7比12[14] M. Imani等人,IEEE,2019,pp. 435-446.[15] P. Poduval等人,从原始数据中进行鲁棒学习IEEE,2021,pp.1195-1200。[16] A. Hernandel-Cane等人,IEEE,2021,pp.56比61[17] Z. Zou等人,像神经适应,1比15[18] P.Poduval 等 人 , “Cognitive correlative encoding for genome sequencematching in hyperdimensional system,”in DAC. IEEE,2021,pp.781-786[19] R. Chen等人,在增材制造中的数据开发和监测”743[20] D. Kleyko等人,nanoscale hardware,[21] Z. zou等人,“Biohd:一个使用超维记忆的高效基因组序列搜索平台”,ISCA。IEEE,2022年。[22] P. Poduval等人,类脑认知学习,[23] Z. Zou等人,“尖峰超维网络:与记忆启发框架集成的神经形态模型”,arXiv预印本arXiv:2110.00214,2021。[24] A. Hérnano-Cano等人,在DAC中的“学习IEEE,2021,pp.553-558[25] M. Imani等人,“Revisiting hyperdimensional learning for fpga and low-powerarchitectures”,HPCA。IEEE,2021,pp. 221-234。[26] M. Nazemi等人,高度准确的超维度学习,[27] A. Angelova等人,CVPR。 IEEE,2005年。[28] A. Paszke等人,“Pytorch:一种命令式风格的高性能深度学习库”,NIPS,2019年,第100页。8026-8037[29] T. Feist,2012年5月[30] S. Salamat等人,“F5-hd:快速灵活的基于FPGA的框架,用于刷新超维计算”,FPGA,2019年,第100页。53比62[31] https://www.kaggle.com/ananthu017/“Emotion情感检测[32] P. Kottarathil,加速比(DNNHDCDNNHDCHDCDNNHDCHDCDNNHDC(@CPU)(@FPGA)(@FPGA)(@CPU)(@FPGA)(@FPGA)(@CPU)(@FPGA)(@FPGA)
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- BSC关键绩效财务与客户指标详解
- 绘制企业战略地图:从财务到客户价值的六步法
- BSC关键绩效指标详解:财务与运营效率评估
- 手持移动数据终端:常见问题与WIFI设置指南
- 平衡计分卡(BSC):绩效管理与战略实施工具
- ESP8266智能家居控制系统设计与实现
- ESP8266在智能家居中的应用——网络家电控制系统
- BSC:平衡计分卡在绩效管理与信息技术中的应用
- 手持移动数据终端:常见问题与解决办法
- BSC模板:四大领域关键绩效指标详解(财务、客户、运营与成长)
- BSC:从绩效考核到计算机网络的关键概念
- BSC模板:四大维度关键绩效指标详解与预算达成分析
- 平衡计分卡(BSC):绩效考核与战略实施工具
- K-means聚类算法详解及其优缺点
- 平衡计分卡(BSC):从绩效考核到战略实施
- BSC:平衡计分卡与计算机网络中的应用
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功