基于神经元归因攻击的对抗性迁移性提高
需积分: 0 173 浏览量
更新于2024-08-03
收藏 3.26MB PDF 举报
Improving Adversarial Transferability via Neuron Attribution-Based Attacks
本文主要讨论了深度神经网络(Deep Neural Networks,DNNs)中的对抗性攻击问题。作者提出了基于神经元 Attribution 的攻击方法,以提高对抗性样本的可迁移性。
首先,作者指出,深度神经网络在安全敏感应用中存在漏洞,容易受到对抗性攻击。为此,需要设计有效的攻击算法来识别 DNNs 的缺陷。然而,在黑箱设置中,目标模型的细节是未知的,攻击算法需要在不知道目标模型的情况下工作。
为了解决这个问题,作者提出了一种基于特征级别的攻击方法。这种方法通过污染本地模型的中间特征输出,然后使用这些crafted 对抗性样本来攻击目标模型。由于特征的可迁移性,基于特征级别的攻击方法可以生成更加可迁移的对抗性样本。
然而,现有的基于特征级别的攻击方法仍然存在一些限制。例如,如何选择合适的特征级别,以确保攻击的有效性?如何在不知道目标模型的情况下,设计高效的攻击算法?
为解决这些问题,作者提出了基于神经元 Attribution 的攻击方法。这种方法通过对神经元的贡献度进行评估,以确定对抗性样本的可迁移性。具体来说,作者使用神经元 Attribution 评估每个神经元对输出的贡献度,然后选择对输出影响最大的神经元,生成对抗性样本。
实验结果表明,基于神经元 Attribution 的攻击方法可以生成更加可迁移的对抗性样本,提高了攻击的有效性。此外,作者还讨论了基于神经元 Attribution 的攻击方法在实际应用中的潜力,例如在安全敏感应用中识别 DNNs 的缺陷。
本文提出了一种基于神经元 Attribution 的攻击方法,以提高对抗性样本的可迁移性。这种方法可以在安全敏感应用中识别 DNNs 的缺陷,提高了攻击的有效性。
知识点:
1. 深度神经网络(DNNs)中的对抗性攻击问题
2. 基于特征级别的攻击方法
3. 基于神经元 Attribution 的攻击方法
4. 神经元 Attribution 评估每个神经元对输出的贡献度
5. 对抗性样本的可迁移性
6. 安全敏感应用中的 DNNs 缺陷识别
本文对深度神经网络中的对抗性攻击问题进行了深入讨论,并提出了基于神经元 Attribution 的攻击方法,以提高对抗性样本的可迁移性。这对于安全敏感应用中的 DNNs 缺陷识别具有重要意义。
2021-09-25 上传
2020-02-20 上传
2024-07-02 上传
2023-03-30 上传
2023-04-01 上传
2023-04-01 上传
2023-06-11 上传
2023-05-26 上传
2023-03-31 上传
希可诺、
- 粉丝: 5
- 资源: 1
最新资源
- ES管理利器:ES Head工具详解
- Layui前端UI框架压缩包:轻量级的Web界面构建利器
- WPF 字体布局问题解决方法与应用案例
- 响应式网页布局教程:CSS实现全平台适配
- Windows平台Elasticsearch 8.10.2版发布
- ICEY开源小程序:定时显示极限值提醒
- MATLAB条形图绘制指南:从入门到进阶技巧全解析
- WPF实现任务管理器进程分组逻辑教程解析
- C#编程实现显卡硬件信息的获取方法
- 前端世界核心-HTML+CSS+JS团队服务网页模板开发
- 精选SQL面试题大汇总
- Nacos Server 1.2.1在Linux系统的安装包介绍
- 易语言MySQL支持库3.0#0版全新升级与使用指南
- 快乐足球响应式网页模板:前端开发全技能秘籍
- OpenEuler4.19内核发布:国产操作系统的里程碑
- Boyue Zheng的LeetCode Python解答集