毒化数据攻击:机器学习模型的隐私与安全风险
117 浏览量
更新于2024-06-17
收藏 1.11MB PDF 举报
本文探讨了一种新颖的威胁,即“毒化机器学习模型”,这是一种针对机器学习系统隐私和完整性的新类型攻击。研究人员弗洛里安·T·拉梅尔、礼萨·肖克里、Ayrton San Joaquin等人来自瑞士联邦理工学院、俄勒冈州立大学、新加坡国立大学和谷歌团队,他们揭示了对手通过污染训练数据集,可能对基于这些数据训练的模型造成严重影响。
攻击的核心是所谓的“主动推理攻击”,它结合了成员推理、属性推理和数据提取的技术。成员推理攻击允许攻击者从模型行为中推断出参与训练的数据点所属的个体,即使只占训练数据极小比例(如0.1%)的污染也可能显著降低这种推断的难度,降低1到2个数量级。属性推理则涉及从模型中获取关于个体特征的信息,这可能导致敏感隐私数据的泄露。
更为惊人的是,即使控制住训练数据的一半,攻击者也能发起无针对性的攻击,对所有其他用户的数据进行更精确的推断,挑战了当前加密优先级策略在多方计算协议中的有效性。这意味着,即使各方试图保护自己的数据隐私,通过选择合适的训练数据份额,攻击者仍能利用模型的训练过程来揭示隐私信息。
这项研究的结果对于设计和实施机器学习系统的安全性具有重要意义,强调了在多方计算场景中,单纯依赖加密可能不足以防止此类数据泄露。文章还提到了ACM SIGSAC计算机和通信安全会议(CCS'22)的相关记录,展示了研究成果的学术背景和出处,以及对关键词“机器学习”、“中毒”、“隐私”和“成员推理”的讨论。
这篇论文揭示了机器学习模型面临的新型隐私威胁,并提出了一种全新的攻击范式,这将促使安全专家重新评估现有的防御策略,并推动更深层次的隐私保护措施在机器学习领域的研发。
2021-09-24 上传
2010-10-13 上传
2023-08-18 上传
2024-10-27 上传
2024-10-27 上传
2024-10-27 上传
2023-04-29 上传
2023-05-17 上传
2023-06-01 上传
cpongm
- 粉丝: 5
- 资源: 2万+
最新资源
- 平尾装配工作平台运输支撑系统设计与应用
- MAX-MIN Ant System:用MATLAB解决旅行商问题
- Flutter状态管理新秀:sealed_flutter_bloc包整合seal_unions
- Pong²开源游戏:双人对战图形化的经典竞技体验
- jQuery spriteAnimator插件:创建精灵动画的利器
- 广播媒体对象传输方法与设备的技术分析
- MATLAB HDF5数据提取工具:深层结构化数据处理
- 适用于arm64的Valgrind交叉编译包发布
- 基于canvas和Java后端的小程序“飞翔的小鸟”完整示例
- 全面升级STM32F7 Discovery LCD BSP驱动程序
- React Router v4 入门教程与示例代码解析
- 下载OpenCV各版本安装包,全面覆盖2.4至4.5
- 手写笔画分割技术的新突破:智能分割方法与装置
- 基于Koplowitz & Bruckstein算法的MATLAB周长估计方法
- Modbus4j-3.0.3版本免费下载指南
- PoqetPresenter:Sharp Zaurus上的开源OpenOffice演示查看器