没有合适的资源?快使用搜索试试~ 我知道了~
13170关于在在线图像共享中使用“深度”特征0Ashwini Tonge和CorneliaCaragea计算机科学,堪萨斯州立大学曼哈顿,堪萨斯州atonge@ksu.edu,ccaragea@ksu.edu0摘要0在社交网络网站(如Facebook、Flickr和Instagram)上的在线图像共享可能导致不必要的披露和隐私侵犯,当隐私设置被不当使用时。尽管社交网络网站允许用户设置他们的隐私偏好,但对于绝大多数用户来说,这可能很麻烦。在本文中,我们探讨了社交媒体的隐私预测模型,可以在图像在线共享之前自动识别图像中的私人(或敏感)内容,以帮助保护用户在社交媒体中的隐私。更具体地说,我们研究了从预训练的深度卷积神经网络(CNN)的各个层中提取的“深度”视觉特征以及从CNN生成的“深度”图像标签。对数千张图像的Flickr数据集的实验结果表明,深度视觉特征和深度图像标签可以成功识别图像的私人内容,并且在这个任务上明显优于先前的模型。0CCS概念0• 安全和隐私 → 社交网络安全和隐私;0关键词0图像隐私;深度视觉特征;隐私设置预测0ACM参考格式:Ashwini Tonge和CorneliaCaragea。2018。关于在在线图像共享中使用“深度”特征。在2018年网络会议伴侣,2018年4月23日至27日,法国里昂。ACM,美国纽约,5页。https://doi.org/10.1145/3184558.319157201 引言0社交网络网站(如Facebook、Flickr和Instagram)通过多媒体共享的迅速增长可能会对用户的隐私造成潜在威胁,当隐私设置被不当使用时[1]。许多用户快速共享关于自己、家人和朋友的私人图像,但他们很少更改默认的隐私设置,这可能会危及他们的隐私[22]。这些共享的图像可能会揭示用户的个人和社交习惯。此外,智能手机方便了与世界各地的人们随时进行信息交流。皮尤研究中心的一项研究[10]显示,社交网络网站的用户后悔发布的内容。用户的隐私被认为是0本文发表在知识共享署名4.0国际(CC BY4.0)许可下。作者保留在其个人和公司网站上传播作品的权利,并附上适当的归属。WWW '18伴侣,2018年4月23日至27日,法国里昂© 2018IW3C2(国际万维网会议委员会),根据知识共享CC BY 4.0许可发布。ACM ISBN978-1-4503-5640-4/18/04。https://doi.org/10.1145/3184558.31915720(a) 私人0(b) 公共0图1:私人和公共图像的示例。0社交网络网站的研究人员也对此表示关注。例如,Facebook的AI研究主管LeCun[8]敦促开发一种数字助手,在上传尴尬照片时警告人们敏感内容。因此,为了避免隐私侵犯并保护社交媒体中用户共享的内容,开发能够准确检测图像中的私人(或敏感)内容的自动化隐私感知模型变得至关重要。一个天真的基于规则的分类器,如果图像包含人物,则将其分类为私人,但在实际情况下效果不佳。例如,Laxton等人[7]描述了一种“远程复制攻击”,允许对手仅从图像中创建物理密钥副本。基于规则的模型将无法预测将钥匙的图像视为包含私人(或敏感)内容,这需要保护。图1显示了来自公开可用数据集[22]的具有私人或公共内容的图像示例。先前的研究探索了基于用户标签和图像内容特征(如SIFT(尺度不变特征变换)和RGB(红绿蓝))的图像隐私的二元预测模型[17,22]。作者发现SIFT特征和用户标签对于将图像分类为私人或公共是有信息量的。然而,由于图像的标签完全由用户自行决定,它们往往是嘈杂和不完整的[18]。最近,由于使用卷积神经网络(CNN)从图像中识别物体的成功[6],研究人员开始研究基于CNN的隐私框架[19]。然而,自动识别私人内容在本质上是困难的,因为它需要对图像的视觉内容进行深入的“理解”。此外,该任务非常主观,取决于用户的个性和他们对隐私的意识。最近,钟等人[23]讨论了图像隐私分类的通用和个性化模型面临的挑战。具体而言,他们强调通用隐私模式无法很好地捕捉个体的共享行为,而个性化模型通常需要大量的用户数据来学习可靠的模型,并且训练时间和空间消耗大。0Track:第9届建模社交媒体国际研讨会(MSM 2018)应用机器学习和人工智能建模社交媒体WWW 2018年4月23日至27日,法国里昂13180输入:0卷积层0池化层0卷积层0池化层0∙ ∙ ∙完全连接层0输出层0使用CNN(AlexNet)进行图像内容分析0FC 6 ∙ ∙ ∙0FC 7 ∙ ∙ ∙0FC 8 ∙ ∙ ∙0Prob ∙ ∙ ∙0softmax0特征0编码0x0��� ���������� �00 00 0 .21 1. 370 00 00 ∙ ∙∙ 00����������������� �0FC 7特征0w T SVM x+ b0分类0图2:深度特征:使用CNN提取输入图像的深度视觉特征和深度图像标签。0并为每个用户识别和存储模型。我们认识到,应该在两个方向上取得进展,以改进通用和个性化模型的混合方法。因此,在本文中,我们旨在确定一组通用隐私模式,即具有最高区分能力的“深度”特征,用于隐私预测。贡献。我们对各种“深度”特征表示进行了图像隐私预测的分析(即预测图像的类别为私有或公共)。与以前的工作不同,我们探索了可以直接从预训练的对象CNN中获得的用于隐私预测的特征。具体来说,我们使用与CNN的完全连接层的输出相对应的深度特征表示,该CNN在ImageNet[12]上进行了预训练,以及通过softmax从网络的最后一层获得的对象类别的概率分布。由于用户标签集可能不完整且存在噪声,与以前的工作不同,我们利用CNN自动生成与从1,000个对象类别的概率分布中获得的排名靠前的概率相对应的“深度标签”。这些标签还可以为隐私感知图像检索提供相关线索[22]。我们在由Zerr等人[22]提供的Flickr图像的PicAlert数据集的子集上评估了“深度”特征(从AlexNet[6]中提取)的性能,该数据集被标记为私有或公共。我们凭经验证明,使用深度特征进行隐私预测的学习模型优于基线模型,如基于层次深度特征、SIFT、GIST(全局图像描述符)和用户标签的模型。我们还表明,与基线方法相比,深度特征为私有类别提供了更好的性能。此外,结果表明,深度标签比用户标签和深度标签与用户标签的组合产生更好的模型性能。02相关工作0Buschek等人[2]提出了一种使用元数据(位置、时间、拍摄细节)和视觉特征(人脸、颜色、边缘)为共享图像分配隐私的方法。Zerr等人[22]提出了隐私感知的图像分类,并在Flickr照片上学习分类器。作者考虑了用户注释的标签和视觉特征,如颜色直方图、人脸、边缘方向一致性和SIFT。0隐私分类任务,并发现SIFT对图像隐私检测具有很高的区分能力。与Zerr等人[22]一致,Squicciarini等人[17]还发现SIFT和用户注释的标签对于预测用户图像的隐私效果最好。鉴于CNN在各种与图像相关的任务中的最近成功[3, 5, 6, 13,14],Tran等人[19]研究了CNN用于隐私预测,并显示了与视觉特征(如SIFT [9]和GIST[11])相比的改进性能(这种方法是我们的强基线之一)。Spyromitros-Xioufis等人[15]探索了从CNN中提取的特征,以提供更准确的个性化隐私分类。Yu等人[21]采用CNN实现语义图像分割,并学习对象隐私相关性以识别敏感对象。03 图像隐私预测0图像的隐私性可以通过视觉内容中存在的一个或多个对象以及与之关联的描述(标签形式)来确定。问题陈述:给定一个要上传到网络的图像,任务是将其分类为两个类别之一:private(私有)或public(公共),即包含私有或公共内容。接下来,我们描述用于分类的特征。特征提取:我们使用在ImageNet数据集的ILSVRC-2012对象分类子集上预训练的AlexNet CNN[6]从图像中提取“深度”特征。AlexNet实现了一个包含八层前馈神经网络,其中前五层由交替的卷积和池化层组成,而顶部三层由全连接(FC)层组成。卷积层表示图像的高级特征,而FC层给出了下面层次特征的非线性组合。通过将softmax函数应用于前一个FC层的输入得到的概率(prob)层,最后是输出层,输出输入图像中对象的概率。这在图2中有所说明。使用来自预训练网络的特征的原因是,用于模型训练的敏感内容有限,而训练或微调深度网络需要大量的隐私数据。深度视觉特征:我们从FC层提取了深度视觉特征,这些特征被称为FC 6、FC 7和FC8,以及“prob”层(图2中的青色块)。FC 6、FC 7和FC8的维度分别为4096、4096和1000。通过使用softmax函数,基于输入图像的FC 8层的输出,prob层产生了一个关于c =1000个对象类别的概率分布,可以定义为:P(y = c | z) = exp(zk) /Σj exp(zj),其中z是FC 8层的输出。0Track: 第9届社交媒体建模国际研讨会(MSM 2018)应用机器学习和人工智能进行社交媒体建模WWW 2018年4月23日至27日,法国里昂131904 数据集和评估设置0深度图像标签:有趣的是,并不是社交网络站点上的所有图像都有标签,或者标签集非常稀疏[18]。因此,我们使用自动注释技术根据图像的视觉内容为图像生成标签。对于自动图像注释,我们从CNN提取的概率分布中预测输入图像x的前K个对象类别。我们为图2中的图片预测了“Maillot”、“Wig”、“Brassiere”、“Bra”和“Miniskirt”等深度标签(注意,只获取了前K=5个深度标签)。然而,重要的标签如“people”和“women”没有包含在内。这是因为用于训练的1,000个对象类别不包含这些标签。0我们在来自PicAlert数据集的32,000个Flickr图像的子集上训练和评估了基于深度特征的模型,该数据集由Zerr等人提供[22]。PicAlert包含了各种主题的Flickr图像,这些图像由外部观众手动标记为“private”或“public”。在我们的实验中,这32,000张图像被分为训练集和测试集,分别包含10,000张和22,000张图像。我们考虑了更多的测试图像(相对于训练图像),以评估“深度”特征在大量未见过的图像上的表现,而训练图像数量有限。每个实验重复五次,使用不同的训练/测试分割,并在这五次运行中呈现微平均结果。训练集和测试集中的公共图像和私有图像的比例均为3:1。评估设置。为了评估深度特征,我们使用了Weka中实现的支持向量机(SVM)分类器,并选择了在训练集上使用10折交叉验证(CV)获得最佳性能的超参数。我们尝试了C = {0.001, 0.01, 1.0, ...,10.0},核函数:多项式和RBF,RBF中的γ参数以及多项式的阶数d。所有结果表中显示的超参数遵循“R/P,C,γ/d”的格式,其中“R”表示“RBF”,“P”表示“Polynomial”。05 实验和结果0我们展示了深度特征的实验评估结果。我们将基于深度视觉特征训练的模型与基于基线视觉特征训练的模型进行了性能比较,用于隐私预测。早期用户标签在隐私预测方面表现良好[17,22],因此我们使用用户注释的标签和自动注释(深度)标签来检查标签特征的质量。05.1 深度视觉特征的结果0实验设计:我们希望从具有最高区分能力的深度特征集中识别出最有前景的视觉特征,以用于隐私类别的预测。为了实现这一目标,我们首先比较不同深度视觉特征之间的差异。然后,我们将基于深度视觉特征的模型与我们下面描述的几个基线模型进行比较。基线模型:Tran等人[19]提出了PCNH,这是一个基于CNN的隐私框架,它结合了从两个架构中获得的特征:0特征 H-Param 准确率 % F1 精确率 召回率0#1 深度视觉特征0FC 6 R,1 . 0,0 . 05 85.49 0.844 0.847 0.8550FC 7 R,2 . 0,0 . 01 85.83 0.851 0.851 0.8580FC 8 R,1 . 0,0 . 05 85.80 0.851 0.851 0.8580Prob R,5 . 0,1 . 0 83.18 0.824 0.822 0.8320#2 分层深度特征[19]0PCNH − 84.21 0.833 0.832 0.8420#3 SIFT/GIST [16, 17, 22]0SIFT P,1 . 0,2 . 0 77.31 0.674 0.598 0.7730GIST R,0 . 001,0 . 5 77.33 0.674 0.598 0.7730SIFT+GIST R,0 . 05,0 . 5 72.67 0.704 0.691 0.7270#4 基于规则的模型0规则-1 − 77.35 0.683 0.694 0.6720规则-2 − 77.93 0.673 0.704 0.6440表1:深度视觉特征与基线对比0其中一个提取卷积特征,另一个提取物体特征。物体CNN是一个由AlexNet的FC层末尾附加的三个大小为512、512、24的FC层组成的深度网络,PCNH框架首先在ImageNet数据集上进行训练,然后在一个小的隐私数据集上进行微调。由于图像的隐私性在很大程度上取决于图像中的物体,我们认为通过较高数量的神经元(AlexNet的FC7层中的4096个神经元)获得的控制物体的不同属性的特征可以更好地近似隐私函数,而不是添加更多的非线性层(如PCNH中所做的)。增加复杂非线性层的数量会引入更多需要学习的参数,并且同时,对比较小的训练数据量(PicAlert vs.ImageNet),可能导致过拟合。此外,将这样一个深度网络在ImageNet上进行训练,然后在隐私数据上进行微调,会显著增加处理能力和时间复杂度。此外,如果将新的物体添加到物体数据集中,需要从头开始重新训练网络。相反,从最先进的CNN架构中派生的特征可以减少重新训练的开销,并且仍然可以实现良好的隐私预测性能。因此,我们将基于“深度”特征训练的模型与PCNH隐私框架进行比较,并将后者视为我们的第一个基线。与Tran等人[19]在其评估中使用800张图像不同,我们在大量图像(22000张)上评估我们的模型,以验证深度特征在各种图像主题上的性能。我们将在SIFT、GIST和它们的组合之间表现最佳的特征训练的分类器视为第二个强基线。我们还将深度特征的性能与两个简单的基于规则的分类器进行比较,如果图像包含人物,则预测为私密图像。否则,将图像分类为公开图像。对于第一个基于规则的分类器,我们使用Viola-Jones算法[20]检测正面和侧面的人脸。对于第二个基于规则的分类器,我们考虑用户标签,如“women”、“men”、“people”。对于深度视觉特征,我们使用在CAFFE[4]中实现的AlexNet预训练的CNN,它是一个用于深度神经网络的开源框架。我们将“Train”和“Test”中的图像调整为227×227的CAFFE卷积神经网络兼容尺寸,并使用对应于FC 6、FC7、FC8和“Prob”的三个深度特征表示来编码每个图像,其中“Prob”是通过softmax从FC 8获得的概率分布。0研讨会:第9届社交媒体建模国际研讨会(MSM 2018)应用机器学习和人工智能建模社交媒体WWW 2018年4月23日至27日,法国里昂DTR,1.0,0.183.180.8190.8190.832DT+UTR,1.0,0.0584.590.8330.8370.84613200结果:表1显示了使用从AlexNet、FC 6、FC 7、FC8和“Prob”提取的每种深度特征类型的SVM的比较结果(精确度、召回率、F1-度量和准确度),以及它们与基线特征(即使用基线特征训练的SVM)的性能的比较结果,在测试集上。从表中可以看出,训练在FC 7和FC 8上的SVM表现相似,并且随着从FC 6到FC7的过渡,性能有所提高。这是因为网络的更高层次捕捉到图像中存在的物体的高级特征描述。我们注意到所有的FC 6、FC 7、FC8深度特征在所有比较指标上都能达到85%以上的性能。值得一提的是,将每个图像都分类为“公共”类别的简单基线模型的准确度为75%。值得一提的是,“prob”特征的性能比从完全连接的层中提取的特征要差。一个可能的解释是,通过softmax函数将前一层(AlexNet中的FC8)的值压缩到“prob”层,产生对于SVM来说不太有用的非线性。FC层相对于“prob”层的结果在p值<0.05的情况下具有统计学意义。表1还显示,相对于基线视觉特征,基于AlexNet提取的深度视觉特征FC 6、FC 7、FC8提供了更好的特征表示来进行隐私预测。具体而言,使用从AlexNet提取的深度视觉特征的模型优于使用基线特征、PCNH、SIFT、GIST和SIFT +GIST训练的模型。例如,F1-度量从PCNH特征获得的0.833提高到FC8获得的0.851。我们在F1-度量上相对于SIFT +GIST模型的改进高达15%,即我们的第二个基线模型。相对于基线方法,我们的F1-度量改进在p值<0.05的情况下具有统计学意义。0有趣的是,基于面部特征的规则比SIFT和GIST表现更好,并且表明特征代表人物对于预测图像的私密内容是有帮助的。然而,“深度”特征在所有指标上比基于面部特征的基于规则的模型表现更好,超过10%(见表1,#4基于规则的模型)。简单的基于规则的模型对于这个任务是不够的,需要先进的深度学习等人工智能技术。我们还在表2中展示了“私密”类别的隐私预测性能,以确定哪些特征有效地表征了私密类别,因为在网络上与所有人分享私密图像是不可取的。我们发现基于AlexNet的深度视觉特征训练的SVM相对于基线特征训练的SVM在私密类别上获得了改进的性能。具体而言,使用最佳性能的深度视觉特征FC 7,私密类别的F1-度量从PCNH获得的0.598提高到FC7获得的0.642。0特征 H-参数 准确度 % F1 精确度 召回率0用户标签 R,2 . 0,0 . 05 81.73 0.789 0.803 0.8170表3:使用标签特征的隐私预测性能。0接下来,我们将检查标签特征的质量,并将深度图像标签与用户注释标签进行对比。05.2 深度图像标签的结果0实验设计:我们研究了SVM在用户标签和深度图像标签上的隐私预测性能。我们还研究了用户标签和深度标签的组合,这些标签捕捉了图像的不同方面。图2中图像的用户标签示例包括:“生日派对”,“夜生活”,“人物”等。对于深度标签,我们考虑K =10,因为其他K值没有产生更高的结果(在Train集上进行10折交叉验证)。结果:表3显示了标签特征在Test上的实验结果,并比较了使用在深度标签、用户标签和它们的组合上训练的模型所获得的性能。在表中,“UT”表示用户标签,“DT”表示深度标签。从表中我们可以看出,深度标签的性能优于用户标签,然而两者的组合优于各自的标签,即用户标签和深度标签。这可以通过用户标签具有一些通用标签,而深度标签包含一些特定标签来解释,这些标签捕捉了数据的各个方面。为了看到这一点,仅使用通用标签可能会导致两个不同隐私类别之间的重叠。例如,如果我们考虑更通用的标签,如“衣服”而不是“泳衣”,那么该标签可能会出现在两个类别中,因此无法区分它们。同样,如果我们只考虑非常特定的标签,模型可能会过拟合,并且在未见数据上泛化效果不好。06 结论和未来工作0在本文中,我们探索了AI技术,即从各种CNN层中提取的深度特征,用于图像隐私分类。我们的结果表明,与“prob”层对应的AlexNetCNN的全连接层对应的深度视觉特征优于“prob”层对应的特征。我们还研究了用户注释标签和深度标签(从“prob”层生成)并发现两种标签的组合优于各自的标签集。此外,使用深度特征训练的模型在性能上优于几个基线。我们的分类任务的结果有望帮助其他非常实际的应用。例如,执法人员需要在涉嫌的设备上审查数字证据,以便在图像和视频中检测到敏感内容,例如儿童色情。在应用更复杂的方法之前,这里开发的学习模型可以用于过滤或缩小具有敏感或私密内容的图像和视频的数量。未来,可以探索其他CNN架构用于隐私预测。此外,可以从描述和评论中提取用户标签以获取有关图像的其他信息。07 致谢0本研究部分得到NSF奖励#1421970的支持。0研究方向:第9届建模社交媒体国际研讨会(MSM 2018)应用机器学习和人工智能建模社交媒体WWW 2018年4月23日至27日,法国里昂13210参考文献0[1] Shane Ahern, Dean Eckles, Nathaniel S. Good, Simon King, Mor Naaman和RahulNair. 2007. Over-exposed?: Privacy Patterns and Considerations in Online and MobilePhoto Sharing. In Proceedings of the SIGCHI Conference (CHI ’07). ACM, New York,NY, USA, 357–366. [2] Daniel Buschek, Moritz Bader, Emanuel vonZezschwitz和Alexander De Luca. 2015. Automatic Privacy Classification of PersonalPhotos. In Human-Computer Interaction - INTERACT 2015. Vol. 9297. 428–435. [3]Clement Farabet, Camille Couprie, Laurent Najman和Yann LeCun. 2013. LearningHierarchical Features for Scene Labeling. IEEE Transactions on Pattern Analysis andMachine Intelligence (August 2013). [4] Yangqing Jia, Evan Shelhamer, Jeff Donahue,Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama和Trevor Darrell.2014. Caffe: Convolutional Architecture for Fast Feature Embedding. In Proceedingsof the ACM International Conference on Multimedia. 675–678. [5] Sergey Karayev,Aaron Hertzmann, Holger Winnemoeller, Aseem Agarwala和Trevor Darrell. 2013.Recognizing Image Style. CoRR abs/1311.3715 (2013). [6] Alex Krizhevsky, IlyaSutskever和Geoffrey E. Hinton. 2012. ImageNet Classification with DeepConvolutional Neural Networks. In Advances in Neural Information ProcessingSystems 25, F. Pereira, C.J.C. Burges, L. Bottou和K.Q. Weinberger(Eds.)。CurranAssociates, Inc.,1097–1105. [7] Benjamin Laxton, Kai Wang和Stefan Savage. 2008.Reconsidering Physical Key Secrecy: Teleduplication via Optical Decoding. InProceedings of the 15th ACM Conference on Computer and CommunicationsSecurity (CCS ’08). ACM, 469–478. [8] Yann LeCun. 2017. Facebook Envisions AI ThatKeeps You From Uploading Embarrassing Pics.https://www.wired.com/2014/12/fb/all/1.(2017)。[在线;访问日期:2017年4月12日]。[9] David G. Lowe. 2004. Distinctive Image Features from Scale-Invariant Keypoints.IJCV 60, 2(2004年11月),91–110. [10] MARY MADDEN. 2012. Privacy managementon social media sites.http://www.pewinternet.org/2012/02/24/privacy-management-on-social-media-sites.(2012)。[在线;访问日期:2017年11月12日]。[11] Aude Oliva和Antonio Torralba.2001. Modeling the Shape of the Scene: A Holistic Representation of the SpatialEnvelope. IJCV 42, 3(2001年5月),145–175. [12] Olga Russakovsky, Jia Deng, HaoSu, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy,Aditya Khosla, Michael Bernstein, Alexander C.0Berg和Li Fei-Fei. 2015. ImageNet大规模视觉识别挑战. IJCV(2015年4月),1-42。[13]Pierre Sermanet,David Eigen,Xiang Zhang,Michael Mathieu,Rob Fergus和YannLeCun. 2014. OverFeat:使用卷积网络进行集成识别,定位和检测.在ICLR 2014中. CBLS.[14] Pierre Sermanet,Koray Kavukcuoglu,Soumith Chintala和Yann Lecun. 2013.无监督多阶段特征学习的行人检测.在2013年IEEE计算机视觉和模式识别会议论文集中.3626-3633. [15] Eleftherios Spyromitros-Xioufis,Symeon Papadopoulos,AdrianPopescu和Yiannis Kompatsiaris. 2016.个性化隐私感知图像分类.在2016年ACM多媒体检索国际会议论文集(ICMR'16)中.ACM,纽约,美国,71-78. [16] Anna Squicciarini,Cornelia Caragea和Rahul Balakavi.2017. 迈向自动在线照片隐私. ACM Trans. Web 11,1,文章2(2017年4月)。[17]Anna C. Squicciarini,Cornelia Caragea和Rahul Balakavi. 2014.分析现代网络图像的隐私.在第25届ACM超文本和社交媒体会议(HT'14)论文集中.ACM,纽约,美国,136-147. [18] Hari Sundaram,Lexing Xie,Munmun DeChoudhury,Yu-Ru Lin和Apostol Nat- sev. 2012.多媒体语义:内容与社区之间的相互作用. IEEE(2012年)。[19] Lam Tran,DeguangKong,Hongxia Jin和Ji Liu. 2016.Privacy-CNH:使用分层特征的卷积神经网络检测照片隐私的框架.在第三十届AAAI会议论文集中. 1317-1323. [20] Paul Viola和Michael Jones. 2001.强大的实时对象检测.在国际计算机视觉杂志中. [21] Jun Yu,BaopengZhang,Zhengzhong Kuang,Dan Lin和Jianping Fan. 2017.iPrivacy:通过深度多任务学习识别敏感对象的图像隐私保护. IEEE Trans. Inf. ForensicSecur 12,5(2017年)。[22] Sergej Zerr,Stefan Siersdorfer,JonathonHare和Elena Demidova. 2012. 隐私感知图像分类和搜索.在第35届国际ACMSIGIR会议论文集中. ACM,纽约,美国。[23] Haoti Zhong,Anna Squicciarini,DavidMiller和Cornelia Caragea. 2017.基于群体的个性化模型用于图像隐私分类和标记.在第26届国际人工智能联合会议IJCAI-17论文集中. 3952-3958.0Track:第9届社交媒体建模国际研讨会(MSM 2018)应用机器学习和人工智能进行社交媒体建模WWW2018,2018年4月23日至27日,法国里昂
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 天池大数据比赛:伪造人脸图像检测技术
- ADS1118数据手册中英文版合集
- Laravel 4/5包增强Eloquent模型本地化功能
- UCOSII 2.91版成功移植至STM8L平台
- 蓝色细线风格的PPT鱼骨图设计
- 基于Python的抖音舆情数据可视化分析系统
- C语言双人版游戏设计:别踩白块儿
- 创新色彩搭配的PPT鱼骨图设计展示
- SPICE公共代码库:综合资源管理
- 大气蓝灰配色PPT鱼骨图设计技巧
- 绿色风格四原因分析PPT鱼骨图设计
- 恺撒密码:古老而经典的替换加密技术解析
- C语言超市管理系统课程设计详细解析
- 深入分析:黑色因素的PPT鱼骨图应用
- 创新彩色圆点PPT鱼骨图制作与分析
- C语言课程设计:吃逗游戏源码分享
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功