螺旋差分隐私提升可扩展SGD分析效率与隐私保护
需积分: 9 12 浏览量
更新于2024-07-18
1
收藏 1.27MB PPTX 举报
《Bolt-on Differential Privacy for Scalable Stochastic Gradient Descent-based Analytics》是一篇深入探讨如何将差分隐私技术应用于大规模可扩展的随机梯度下降(SGD)算法的研究论文。文章由Xi Wu、Fengan Li等人合作撰写,关注于解决当前主流可扩展分析框架中缺乏隐私保护的问题。
论文背景:
1. 差分隐私作为一种强大的隐私保护手段,通过在算法中引入随机噪音来确保个体数据的匿名性,从而防止模型训练结果泄露敏感信息。然而,这种技术通常会带来模型精度的损失,尤其是在大型数据集和复杂模型中。此外,现有的隐私SGD算法在开发和执行效率上存在挑战。
2. 本文的主要贡献是提出了一个名为螺旋差分隐私的新算法,它利用输出扰动的方法,实现了对SGD算法的黑盒集成,保持了SGD的许多理想特性,如并行性和易于扩展。此外,作者提出了一种创新的L2-敏感度分析,使得基于输出扰动的隐私保护在保持较高准确率的同时,对实际应用中的收敛性能影响较小。值得注意的是,这种噪声仅在优化过程完成后添加,避免了在训练过程中对SGD优化的影响。
3. 实验评估部分,论文将所提出的算法与最先进的两个隐私SGD算法在Bismarck框架上进行对比,结果显示,新算法在运行速度、扩展性和模型精度方面都有显著优势,特别是在多个真实数据集上,其性能提升了4倍,尤其是在凸和强凸条件下的表现更佳。
相关知识点:
- 凸集与强凸:凸集是指对于任意两点,它们之间的线段都在集合内,保证了函数在该区域内具有全局最小值。而强凸性进一步增强了这种局部最优性,使得函数沿任何方向的切线都位于函数下方。
- 随机梯度下降(SGD):在大数据背景下,SGD通过在每次迭代中仅随机选取一部分样本计算梯度,降低了计算成本,适用于大规模机器学习任务。然而,噪声的引入需要平衡隐私保护和模型性能之间的关系。
总结来说,本文的研究提供了一种有效的差分隐私解决方案,不仅提高了隐私保护的效率,还兼顾了模型的准确性和可扩展性,这对于在实际数据处理场景中广泛应用SGD算法的公司和研究者具有重要意义。
2019-11-14 上传
2021-09-30 上传
2023-08-10 上传
2023-07-11 上传
2023-07-11 上传
2023-07-27 上传
2023-06-09 上传
2023-07-11 上传
kiooooo
- 粉丝: 4
- 资源: 2
最新资源
- Min-f-rste-hjemmeside
- turkerbulut.github.io
- Digital-monster-Program:在PC上播放数字怪物
- GenFileData.zip
- Developer Excuses-crx插件
- UdemyTest1:从 AS 创建 repos
- 深蓝色商务UI设计公司企业模板下载4910.zip
- Mybasket-backend
- sclock:电池供电的从时钟驱动器,围绕ATmega328P构建
- ayakotm-crx插件
- LEMS,c#录amr源码,c#
- 仿新乡医学院三全学院3g触屏版手机wap学校网站模板_网站开发模板含源代码(css+html+js+图样).zip
- Express-Js-Gearman-样本
- p1.sreshtanelluri
- class-33
- 使用 MATLAB 和遗传算法和直接搜索工具箱进行优化:在 2004 年 9 月 16 日举行的网络研讨会中使用的 M 文件。-matlab开发