没有合适的资源?快使用搜索试试~ 我知道了~
智能系统与应用16(2022)200107VGG网络的人脸呈现攻击识别优化苏迪普湾Thepade*,Mayuresh Dindorkar,Piyush Chaudhari,Shalakha Bang印度浦那SPPU Pimpri Chinchwad工程学院计算机工程系A R T I C L EI N FO保留字:人脸活体检测迁移学习VGG16VGG19DensNet121XceptionMobileNetInceptionV3A B S T R A C T深度学习的进步正在映射到生活的各个领域,并将其应用于几乎所有的研究问题。许多深度卷积神经网络(DCNN)架构被提出,根据超参数的深度和值给出不同的结果。这种DCNN架构的从头开始的整个开发需要大量的努力,并且这种架构可能不用于除了它们被构造用于的应用之外的其他应用。迁移学习是一种修改这些预先训练好的网络的方法,使它们适合更新的不同应用。本文试图经验性地评估现有预训练的DCNN架构用于人脸活体检测的性能和适用性。随着环境计算技术的发展,人脸活体检测成为一个重要的研究领域。SIX预训练的DCNN模型,别名VGG16、VGG19、DensNet121、Xception、MobileNet和InceptionV3,被考虑用于人脸活性检测的经验评估。 该方法使用两个人脸活体检测数据集-NUAA和Replay-Attack进行了探索面部活性准确性和一半总错误率(HTER)被认为是主要的性能评估指标。在10- 4的学习率下,具有场景“原始VGG“的VGG 19网络1. 介绍在普适计算的现代时代,个人的安全主要依赖于他们的生物特征,诸如面部(Kekre等人, 2010 a; Kekre等人, 2010 b),虹膜( Kekre et al. ,2011 a; Thepade &Bidwai , 2013; Thepade&Mandal,2014)、指纹(Khade等人,人脸&识别已成为数据安全中使用的最重要的生理生物特征模式,因为面部显示出丰富的特征,并且易于处理面部识别系统(Kekre等人,2010 b,Kekre等人,2011 b)。攻击者通过欺骗照片、视频、剪切照片、面具攻击等来误导这些系统。为了减轻这些攻击,现有的人脸识别系统应该即兴发挥。 电子反欺骗方法利用基于运动、基于形状、基于深度、基于颜色、基于纹理和基于深度学习的特征进行欺骗识别。被称为卷积神经网络(CNN)的深度神经网络(NN)的子集在各种图像处理领域中被广 泛探索 几个 预训练 的深度CNN 模型 ,如 VGG16, VGG19 ,InceptionV3等,是在大型数据集上训练的,用于图像分类工作。大型带注释的数据集是高精度模型的主要要求。为每个领域获得如此大的数据集并不容易。为了最大限度地减少这一要求,一种称为迁移学习的方法应运而生。它是一种重用现有预训练模型来解决不同但相关问题的方法。通常,修改先前为特定任务开发的训练模型以执行其他任务的方法称为迁移学习。迁移学习方法提高了新模型的速度和性能。基于研究领域和可用数据使用不同的迁移学习技术。本文的主要贡献如下。本文尝试对六个预训练的深度CNN架构(VGG 16,VGG 19,Incep-tionV 3,DenseNet 121,MobileNet和Xception)进行人脸活性检测应用的经验性能评估。* 通讯作者。电子邮件地址:sudeepthepade@gmail.com(S.D.Thepade)。https://doi.org/10.1016/j.iswa.2022.200107接收日期:2021年10月11日;接收日期:2022年7月20日;接受日期:2022年8月6日2022年8月7日在线发布2667-3053/© 2022作者。出版社:Elsevier Ltd这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)。可在ScienceDirect上获得目录列表智能系统及其应用杂志主页:www.journals.elsevier.com/intelligent-systems-with-applications·S.D. Thepade等人智能系统与应用16(2022)2001072表1Fig. 1. 流程图说明了在现有的预训练深度CNN模型中进行的修改,用于面部活性检测任务。概率类概率向量是通过组合这些从两个数据集中获取的训练和测试人脸图像的数量,用于DCNN模型的拟议经验性能评估。Face类重放攻击NUAA列车测试列车测试活面10,800 13,656 1743 3362假脸32,280 42,809 1748 5761使用四种类型进行欺骗仅使用一种类型进行欺骗表2在用于人脸活体检测的迁移学习中使用的现有DCNN模型的性能评估期间设置的优化器参数。参数值优化器亚当学习率10-3、10-4、10-5批量102Beta-1 0.9贝塔-2 0. 9991 * 10-8小时• 通过在10-5的学习速率下对VGG 16和VGG 19的最后两个卷积块进行微调VGG网络的复杂性通过减少探索场景(方法)中卷积块的数量来降低。在两个标准数据集上进行了EX实验探索:NUAA数据集和Replay-Attack数据集。2. 文献调查最近的一些尝试实现预训练的CNN模型用于人脸活体检测已经取得了显著的成果。本文对这些尝试进行了简要回顾探 索 了 “FASNet” , 一 种 作 为 VGG16 的 改 变 版 本 的 CNN 架 构(Lucena等人,2017年)。使用反向传播,作者微调了FASNet的权重3DMAD重放攻击数据集被用来评估所提出的方法的性能。&Chen等人提出了一种结合ResNet18和旋转不变局部二进制模式(RILBP)特征的特征融合方法。(2019年)。此外,支持向量机(SVM)在这些特征上进行训练,在数据库内和跨数据库测试中均观察到性能的提高。ResNet-18被馈送有三种不同类型的特征,即颜色、时间和基于块的特征(Tang等人,2018年),获得类特征类概率。此外,将该类别概率向量提供给SVM用于执行面部反欺骗任务。在Tu Fang(2017)&中,输入人脸图像中的相关隐藏特征由ResNet50定位。为了学习时间特征,LSTM被应用在ResNet50的顶部这些特征用于确定面部是欺骗的还是真实的。Das等人提出了一种简单的面部反欺骗技术,(2019年)。作者分别从VGG16和LBP描述符中提取了全局深度特征和手工特征。该方法在SSIJRI、Replay-Attack、Replay-Mobile和3DMAD数据集上进行了实验探索了两种面部反欺骗技术(Elloumi等人,2020年)。第一个技术状态LBP直方图计算VGG16微调。&第二种技术利用图像质量测量(IQM)。3. 该方法预训练模型是在大规模图像分类的大规模数据集上保存的先前训练的网络。在迁移学习过程中,机器学习(ML)模型从一个数据集获得的知识用于另一个数据集。迁移学习的两种方法是:(a)使用预先训练的模型作为特定图像分类任务的现成特征提取器。(b)对预训练模型进行微调,在新数据上重新训练整个或部分模型。迁移学习通常用于避免数据量较少时的过拟合,节省训练阶段所需的时间和计算资源是使用迁移学习的主要优点。在这里的工作(图。 1)对于人脸检测,首先将输入的人脸图像转换为灰度,然后通过Haarcascade分类器获得感兴趣区域(ROI)。将输入RGB图像的ROI调整为尺寸为96 * 96像素的窗口。在此预处理之后,所提出的方法在不同的预训练深度学习模型上使用微调方法进行人脸活体检测。对于每个预先训练的模型,最后的全连接层(FC)被分别由大小为256和1的在第一个FC层之后,以避免过度拟合。大多数模型对学习率“1 * 10 - 3”过拟合;因此,学习率为1 * 10 - 4和1 * 10 - 5的结果如下在本文中描述。Adam优化器习惯于学习率和权重衰减1 * 10- 6(参见表1)。此外,sigmoid用作一个适合于二进制分类而不是softmax的决策函数。使用任意初始化的分类头对模型进行微调可能会导致预训练的基础模型由于大的梯度更新而忘记其学习。因此,我们将预训练模型设置为非··S.D. Thepade等人智能系统与应用16(2022)2001073图二、修改后的VGG16架构,通过红色区域显示微调的 卷积块。图3.第三章。修改后的VGG19架构,通过红色区域显示微调的 卷积块。图四、修改后的DenseNet121架构,通过红色区域显示微调的 卷积块。可训练,同时使得分类头在前五个时期的训练期间可训练。稍后,预训练的基础模型的最后两个卷积块,即分类头之前的卷积块然后 ,基 础 模型 和 分类 头 在接 下 来的 30 个 时期 内 联合 训练 对 于VGG16、VGG19&、DenseNet121,对红色边界中包围的最后两个卷积块进行微调,如图2和3所示。分别为2、3和4。在InceptionV3的情况下,最后两个起始块被微调,如图所示。五、在Xception的情况下,最后两个可分离的卷积块被微调(参见图6 ) 。 每 个 可 分 离 卷 积 块 包 括 逐 点 卷 积 和 逐 点 卷 积 。 对 于MobileNet,最后两个可分离卷积块被微调,如图所示。7 .第一次会议。从表3和表4中可以观察到,与其他考虑的微调网络相比,VGG网络(VGG16和VGG19)表现更好DCNN因此这两个网络用于进一步探索以降低这些VGG网络的复杂性,这可以从图8中推断出来。以下是仅选择VGG网络进行进一步探索的原因:• 紧凑的架构• 潜在地提供更高的面部活性检测准确性。为了降低VGG网络的复杂性,我们考虑了五种不同的场景,即原始VGG、场景D、场景C、场景B和场景A(参见图8)。通过从VGG网络中删除最后一个卷积块,在每个场景中降低了复杂性;此外,剩余网络训练了30个epoch,并在“结果和讨论”部分中证明了所得结果3.1. 现有流行的DCNN模型这里 的 经验绩效评估 的 硅X 受欢迎 DCNN学习率为10 - 4 10-5。 在进一步的探索中,型号,别名VGG16、VGG19、InceptionV3、DenseNet121、Xception和S.D. Thepade等人智能系统与应用16(2022)2001074图五. 修改后的InceptionV3架构,通过红色区域显示微调的卷积块。见图6。 修改后的Xception架构,通过红色区域显示微调的卷积块。见图7。 修改后的MobileNet架构显示了红色区域的微调卷积块。MobileNet已经完成。这些令人钦佩的预训练DCNN模型使用用于面部活性检测的迁移学习方法被称为VGG16的CNN模型由Simonyan &Zisserman(2015)提出。它是在ImageNet数据集上训练的,该数据集由1000个类别的近1400万张图像组成,使用NVIDIA的Titan Black GPU。它的架构由16层组成:13个卷积层和3个全连接层。VGG19(Simonyan Zisserman,2015&)由19层组成,包括16个卷积层和3个全连接层。对现有的VGG网络进行了显着改进,将层的深度从16增加到19。具有42层深层架构(Szegedy等人, 2016年),实现了低错误率,因此获得了ILSVRC(ImageNet大规模视觉识别竞赛)2015年亚军。InceptionV3的计算成本仅比GoogleNet(InceptionV1)高2.5倍,但与VGGNet相比仍然有效DenseNet有4个版本,即DenseNet 121,DenseNet 161,DenseNet169和DenseNet 201。在DenseNet中,每一层以前馈方式连接(Huang等人,2017年)。减少消失梯度问题,鼓励特征重用等,是最大的优势S.D. Thepade等人智能系统与应用16(2022)2001075表3测试30个时期内所考虑的微调DCNN模型的精度。微调DCNN学习率(10-4)测试准确度(%)南航(10-5)重放攻击南航VGG1699.9967.1410073.89VGG1999.9568.4310068.30MobileNet93.1868.8794.7056.80DenseNet12191.7965.3798.2962.00Xception99.8669.7198.9665.79InceptionV396.8263.3594.1062.03表4在30个时期内为考虑的微调DCNN模型获得HTER微调DCNN学习率(10-4)(10-5)HTER(%)重放攻击南航重放攻击南航VGG160.01537.54033.14VGG190.128.66041.345MobileNet11.0839.8957.34549.61DenseNet12116.3341.5452.02543.65Xception0.1226.6051.5135.335InceptionV35.5745.8558.7241这些网络。DenseNet121是121层的深层架构。Xception(Chollet,2017)有71层深层架构。Xcep- tion的架构受到了Inception的启发,Inception中的inception模块被深度可分离的卷积所取代。Xception与InceptionV3具有相同数量的参数。MobileNet具有可分离卷积模块的组织,其通过在MobileNet网络中以堆的形式进行的逐点卷积和逐点卷积形成(Howard等人,2017年)。它有28层深的体系结构,考虑dependency和逐点卷积作为一个单独的层。3.2. 实验环境这里使用Kaggle提供的平台进行实验评估。它是一个面向数据科学家和机器学习从业者的在线数据科学社区。Kaggle笔记本中的Python代码是使用GPU作为加速器执行的。Keras库提供的预训练DCNN模型用于实验。本文探讨了用于人脸活性检测的两个标准和可供使用的数据集,即每个修改后的DCNN模型的测试精度和HTER值被用作性能度量。IDIAP研究所已经构建了重放攻击数据集(Chingovska等人,2012),具有50人的1300个视频,其中两个不同的亮度条件被设置为在视频采集期间被不利地控制,参见图2。 二、数据集中的所有视频都以25赫兹的速率拍摄我们已经提取了每秒帧数(FPS)的一半图8. 降低VGG16和VGG19的复杂性。S.D. Thepade等人智能系统与应用16(2022)2001076=图9.第九条。在学 习 率 为 10 - 4的 情 况 下 ,VGG 16和VGG 19在两个NUAA&重放攻击数据集上的平均百分比测试准确度。表5在NUAA数据集上观察到VGG 16超过30个时期的性能指标,学习率为10- 4。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一60.0547.2672.6457.2647.327.3637.33B76.1362.2689.4473.4231.6410.5621.1C75.1271.0354.8561.913.0545.1529.1D75.3980.2144.1156.926.3555.8931.12原始VGG1677.6563.8590.7274.9529.989.2819.63表6在学习率为10- 4的Replay-Attack数据集上观察到的VGG 16超过30个epoch的性能指标。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一99.3498.8798.498.630.361.60.98B100100100100000C100100100100000D100100100100000原始VGG16100100100100000表7在NUAA数据集上观察到VGG 19超过30个时期的性能指标,学习率为10- 4。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一72.30859.3379.4267.9231.7720.5826.175B76.62662.0894.3874.933.645.6219.63C75.68160.4998.5174.9537.551.4919.52D73.15463.9962.3763.1720.4837.6329.055原始VGG1978.5664.8591.5875.9328.978.4218.695表8在学习率为10- 4的Replay-Attack数据集上观察到的VGG 19超过30个epoch的性能指标。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一99.5699.598.7299.110.171.280.725B100100100100000C100100100100000D100100100100000原始VGG19100100100100000(即,25/212)从每个视频。南京航空航天大学发明了NUAA数据集(Tan等人,2010年)。通过网络摄像头获取15个人的真实和欺骗人脸图像该数据集由7509张假人脸和5105张真实人脸图像组成每个人脸图像的尺寸为640 * 480像素。数据库只包括一种类型的欺骗攻击,即“照片攻击”。’拥有外观上的差异,比如性别、戴不戴眼镜和光线。图3中给出了NUAA数据集中的几个样本人脸。表1中显示了针对“Replay-Attack”和“NUAA”数据集的实时和欺骗面部图像采集的训练和测试样本数量本文中使用的性能指标如下:S.D. Thepade等人智能系统与应用16(2022)2001077()=()=2=表9VGG网络在两个数据集上的平均测试准确度百分比,考虑到学习率为10- 4。远 错误接受率FPTN+FPFRR 误拒率FNTP+FN(一)(二)HTER(半总错误率)=(FAR+FRR)100(3)精密度或阳性预测值(PPV)=召回或敏感性TPTP+FNTPTP+FP(四)(五)表14考虑到学习率为10- 5,每个场景下两个数据集上VGG网络的平均测试准确率百分比。场景VGG16VGG19一82.5781.07B81.9483.95C87.0987.12D86.2687.59原始VGG87.2184.67情景平均值85.0184.88表10在NUAA数据集上观察到VGG 16超过30个时期的性能指标,学习率为10- 5。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一65.3252.5261.3056.5732.3438.6935.52B63.8751.0050.2750.6328.1949.7338.96C74.1860.4186.8571.2633.2213.1523.185D72.5163.4759.8561.6120.1040.1530.125原始VGG1674.4176.7043.8755.827.7856.1331.955表11在学习率为10- 5的Replay-Attack数据集上观察到的VGG 16超过30个epoch的性能指标。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一99.8199.7999.4099.590.0650.60.3325B100100100100000C100100100100000D100100100100000原始VGG16100100100100000表12在NUAA数据集上观察到VGG 19超过30个时期的性能指标,学习率为10- 5。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收率(%)HTER(%)一62.1449.1175.1659.4045.4624.8435.15B67.8954.0087.0066.6443.2613.0028.13C74.2360.8984.0670.6231.5015.9423.72D75.1861.8184.9871.5730.6415.0222.83原始VGG1969.3459.353.5456.2721.4446.4633.95表13在学习率为10- 5的Replay-Attack数据集上观察到的VGG 19超过30个epoch的性能指标。场景测试准确度(%)精密度(%)召回率(%)F1-评分(%)FAR(%)财务资源回收HTER(%)场景VGG16VGG19一79.785.94B88.0788.32C87.5687.84D87.786.58原始VGG88.8389.28情景平均值86.3787.59S.D. Thepade等人智能系统与应用16(2022)2001078率(%)一100100100100000B100100100100000C100100100100000D100100100100000原始VGG19100100100100000S.D. Thepade等人智能系统与应用16(2022)2001079()下一页()=100美元图10个。在学 习率 为 10 - 5的 情况 下 ,VGG 16和VGG 19在两个NUAA&重放攻击数据集上的平均百分比测试准确度。表15文献调查的现有DCNN模型与当前经验评估中观察到的性能最佳的微调DCNN模型的比较(%)3DMAD 100 0.00ResNet 50 + RI-LBP(Chen等人, 2019)ResNet-50HTER,EERReplay-Attack- 2.62.3NUAACASIA-FASDMSU-MFSD。–多重深度特征(Tang等人, 2018)ResNet-18EER,ACERCASIA-FASD- -2.2重播-移动–OULU-NPUResNet50+ LSTM(Tu Fang,2017&)ResNet-50 HTER,EER CASIA-FASD重玩-攻击VGG16 + LBP(Das等人, 2019)VGG 16测试精度SSIJRI92.05--重播攻击75.25重播-移动90.523DMAD 96.97VGG16(Elloumi等人, 2020)VGG 16HTER重播攻击- 2.5-CASIA-FASD重播-移动–拟定方法VGG 19(学习率=10- 4,场景=VGG 19测试精度,HTER重放攻击100 0.00NUAA 78.56 18.7F1-评分=2、精确度和召回率(6)精确度+召回率图9中的曲线图描绘了对于10- 4的学习率,场景因此,从表9和图。9、可以共同得出结论,精度TN+TP(7)TN+TP+FN+FP其中:TP(True Positive)=预测为真实的真实面孔数量。 TN(TrueNegative)=预测为假的假面孔的数量。FP(假阳性)=预测为真实的假面孔数量。 FN(假阴性)=预测为假的真实面孔的数量4. 结果和讨论对于每个场景,我们评估了30个时期的模型,选择具有最大测试准确度的特定时期的模型,用于与其他对应场景的模型进行比较学习10 - 4的比率 和10 - 5 适用于所有场景。性能用于评估场景的度量标准是测试准确度、精确度、召回率、F1分数、FAR、FRR和HTER。VGG 19和“原始VGG”方案的组合人脸活性检测的性能,考虑到10- 4的学习率。类似地,对于10- 5的学习率,从表14和图10可以得出结论,VGG16和场景“C”输出的组合与VGG 19和场景“original通过比较绘制的图表图从图9和图10可以得出结论,对于所有场景,与10 - 5的学习率相比,在10 - 4的学习率下获得更高的测试准确度。表15显示了文献调查中提出的面部欺骗检测方法中使用的一些现有DCNN模型与本文在两个数据集的帮助下进行的经验评估中观察到的最佳性能的比较。性能比较是不容易的,因为在每个现有的方法中使用的实验环境是不同的,以及性能指标和数据集也不同。但是如果我们比较一下人脸防欺骗方法预训练的DCNN模型业绩计量使用的数据集测试准确度(%)HTER/ACEREER(%)VGG16(Lucena等人, 2017年)VGG16HTER,测试准确度重放攻击99.041.20–S.D. Thepade等人智能系统与应用16(2022)20010710重放攻击数据集(如表15所示),在VGG19(具有“原始VGG”场景)的拟议工作中观察到的测试准确性和HTER优于文献中考虑的现有类似尝试(Chen等人, 2019; Das等人, 2019; Elloumi等人,2020;Lucena等人,2017; Tang等人,2018; Tu &Fang,2017)。5. 结论人脸活体检测在当今的环境计算场景中是重要的,其中用户身份通过所获取的非接触生物特征来验证。本文尝试对6个预训练的深度CNN架 构 (VGG16 , VGG19 , InceptionV3 , DenseNet121 , MobileNet 和Xception)进行人脸活体检测应用的经验性能评估。所有预训练的DCNN模型都经过修改,使其适合人脸活体检测。在不同数量的时期内观察到的测试准确性& 首先,通过微调最后两个卷积,在10- 5的学习率下,我们得到了VGG 16和VGG 19的块,测试准确率为100%,与表15中提到的方法相比,这是重播攻击数据集的最高准确率。其次,通过减少每个场景中卷积块的数量来实现降低VGG网络复杂度的目的,如图所示。8.第八条。在这种方法中,从结果来看,很明显,VGG 19网络与场景“原始VGG”在学习率的10- 4给出了显著的总体结果,在NUAA数据集上的测试准确度为78.56%,在重放攻击数据集上的测试准确度为100%紧接着这一结果,具有场景“C“的VGG 16网络最后,对于所有的考虑-的学习率获得了更高的测试精度, 收到 在 本 研究工作, 的 提出方法具有在只包含照片攻击和视频攻击的数据集上进行实验。为了丰富关于当前发现的鲁棒性水平的结论,将来可以在包含掩码攻击的数据集上进行实验。作者声明[说明:请勾选所有适用的方框,并按要求提供补充资料。]资金这项工作没有收到资金。 苏迪普·D博士特帕德https://orcid.org/0000-0001-7809-4148b Piyush Chaudharic Mayuresh Dindorkard Shalakha BangCRediT作者贡献声明苏迪普湾Thepade:概念化,方法论,写作-原始草案,监督。Mayuresh Dindorkar:数据管理,调查,可视化,软件,验证。Piyush Chaudhari:数据整理,调查,写作Shalakha Bang:数据管理,调查,可视化,软件,验证。竞争利益不存在利益冲突。我们希望确认,本出版物不存在已知的利益冲突,也不存在可能影响其结果的重大财务支持引用Chen,F.,温,C.,Xie,K.,Wen,F.,Sheng,G.,&唐,X.(2019年)。人脸活体检测:融合颜色纹理特征和深度特征。IET Biometrics,8(6),369-377.https://doi.org/10.1049/iet-bmt.2018.5235钦戈夫斯卡岛Anjos,A.,&Marcel,S.(2012年)。局部二值模式在人脸反欺骗中的有效性研究。以.布罗姆角Busch(Eds.),BIOSIG-国际生物统计学特别兴趣小组会议记录(pp. 1-7)。 IEEE。Chollet,F.(2017年)。Xception:深度学习与深度可分离卷积。在IEEE计算机视觉和模式识别会议(CVPR)上,1800-1807年)。https://doi.org/10.1109/CVPR.2017.195,2017.Das,P.K.,Hu,B.,Liu,C.,Cui,K.,Ranjan,P.,&Xiang、黄唇隐翅虫G.(2019年)。一种使用手工制作和深度网络功能的面部反欺骗新方法。在IEEE服务运营和 物 流 国 际 会 议 和 信 息 学 ( SOLI ) 的 会 议 记 录 中 。 33-38 ) 。 Press.https://doi.org/10.1109/SOLI48380.2019.8955089网站。Elloumi,W.,Chetouani,A.,Charrada,T. B、&Fourati,E.(2020年)。人脸识别中的反欺骗:基于深度学习和图像质量评估的方法(pp. 51-69)。查姆:深度生物识别。无监督和半监督学习。斯普林格https://doi.org/10.1007/978-3-030-32583-1_4Howard,A. G.,孟龙,Z.,Chen,B.,Dmitry,K.,Wang,W.,Weyand,T.,等( 2017 ) 。 M o b i l e N e t s : 用 于 移 动 视 觉 应 用 的 高 效 卷 积 神 经 网 络 。ArXivabs/1704.04861。Huang,G.,刘志,马滕湖维德,&Weinberger,K. Q.(2017年)。密集连接的卷积网络。在IEEE计算机视觉和模式识别会议(CVPR)上,2261-2269)。https://doi.org/10.1109/CVPR.2017.243,2017.凯克雷河B、Thepade,S. D、&Chopra,T.(2010年a)。基于主成分分析的人脸和性别识别。International Journal on Computer Science andEngineering(IJCSE),2(4),959-964.凯克雷河B、Thepade,S. D、Jain,J.,&Agrawal,N. (2011年a)。 基于钱包金字塔纹理特征的虹膜识别。芽孢杆菌中K. Mishra(Ed.),ACM&关于技术新兴趋势的国际会议研讨会(ICWET '11)的会议记录。76-81)。计算机协会。https://doi.org/10.1145/1980022.1980038.凯克雷河B、Thepade,S. D、&Maloo,A.(2010年b)。基于行均值和列均值序列的协方差矩阵特征向量在人脸识别中的应用。国际生物统计学和生物信息学杂志(IJBB),4(2),42-50。凯克雷河B、Thepade,S. D、&Maloo,A.(2011年b)。基于Wallshlet金字塔纹理特征的人脸识别。ACCENTRAL International Journal on Recent Trends inEngineering andTechnology(IJRET),5(1).Khade,S.,Thepade,S. D、&Ambedkar,A.(2018年)。基于方向脊线频率和机器学习分类器的指纹活性检测。在第四届国际计算通信控制和自动化会议(ICCUCITY)上,1-5)。IEEE。https://doi.org/10.1109/ICCUBEA.2018.8697895网站。卢塞纳岛,朱尼尔,A.,Moia,V.,苏扎河,Valle,E. &,Lotufo,R.(2017年)。使用卷积神经网络进行面部反欺骗的转移学习,10317页。27-34)。施普林格·查姆https://doi.org/10.1007/978-3-319-59876-5_4Simonyan,K.,&Zisserman,A.(2015年)。用于大规模图像识别的深度卷积网络。arXiv1409.1556。塞格迪角,Vanhoucke,V.,Loffe,S.,Shlens,J.,&Wojna,Z.(2016年)。重新思考计算机视觉的初始架构。在IEEE计算机视觉和模式识别会议(CVPR)上,2818-2826)。IEEE。https://doi. org/10.1109/CVPR.2016.308,2016.Tan,X.,李,Y.,刘杰,&江湖,澳-地(2010年)。基于稀疏低秩双线性判别模型的单幅图像人脸活性检测。在计算机视觉504-517)。施普林格柏林海德堡https://doi.org/10.1007/978-3-642-15567-3_37Tang,Y.,王,X.,Jia,X.,申湖,澳-地(2018年)。融合多个深层特征用于面部防 欺 骗 。 在 生 物 识 别 方 面 。 CCBR 2018 , 10996 页 。 321-330 ) 。https://doi.org/10.1007/978-3-319-97909-0_35Thepade,S. D、&Bidwai,P.(2013).基于分数阶变换、小波变换和混合小波变换的虹膜识别。在IEEE控制、计算、通信和材料国际会议(ICCCCM)上,1-5)。https://doi.org/10.1109/ICCCCM.2013.6648921Thepade,S. D、&Khade,S.(2018年)。基于余弦变换指纹图像分数能量的指纹活性检测和机器学习分类器。在IEEE Punecon的会议记录中。IEEE,.https://doi.org/10.1109/PUNECON.2018.8745407.Thepade,S. D、&Mandal,P. R.(2014年)。基于haar和kekre变换的虹膜图像分数能量的虹膜识别新技术。InternationalJournal of Scientific& Engineering Research,5(4),305-308.Tu,X.,&Fang,Y.(2017年)。用于人脸防欺骗的超深度神经网络。在,10635。神经信息处理研究进展。ICONIP(pp. 686-695)。斯普林格,查姆。https://doi.org/10.1007/978-3-319-70096-0_70网站。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功