深度哈希学习的对抗挑战:HAG生成对抗性示例

0 下载量 177 浏览量 更新于2024-08-28 收藏 384KB PDF 举报
本文主要探讨了深度哈希学习在大规模近似最近邻搜索中的广泛应用,尤其是在图像检索领域的显著优势。然而,随着深度神经网络(DNN)在图像分类中的脆弱性被发现,对抗性示例的研究变得尤为重要,因为这直接影响到深度检索系统的安全性。对抗性示例是指针对特定模型设计的输入,这些输入在人类看来可能无异常,但能导致模型产生错误的预测或行为。 "哈希对抗性生成(HAG)"是一项创新方法,旨在针对汉明空间搜索生成对抗性示例。汉明空间是哈希编码的理论基础,它在哈希函数的作用下将高维数据映射到低维空间,使得相似的数据在该空间中距离较近。HAG的目标在于生成不易察觉的干扰样本,这些样本在经过目标哈希模型处理后,其哈希码的最近邻在语义上与原始查询的真正相关对象无关。这意味着即使有微小的扰动,也能导致检索结果偏离原本的意图。 HAG的优势在于能够有效地制造出对抗性示例,即使这些扰动很小,也能误导模型做出错误的决策。实验结果显示,HAG在各种场景下展示出良好的扰动可传递性,表明扰动能够在不同的哈希模型和应用场景中保持其破坏效果。此外,论文还提出一种结合异构扰动的方法,使得生成的对抗性示例能够针对黑盒模型发起攻击,即使攻击者对内部工作原理不了解,也能造成有效的误导。 这篇论文深入研究了深度哈希模型在面对对抗性示例时的鲁棒性问题,并提供了实用的策略来生成和利用对抗性示例,以评估和提升模型的抗扰动能力。这对于提高图像检索系统的安全性和稳定性具有重要意义,同时也为未来的研究方向——开发更加鲁棒的哈希学习算法提供了新的挑战和机遇。