联邦学习与安全多方计算:发展历程与安全挑战

版权申诉
5星 · 超过95%的资源 2 下载量 195 浏览量 更新于2024-07-05 收藏 1.25MB PDF 举报
联邦学习与安全多方计算是现代信息技术领域的重要研究方向,它由Google在2016年首次提出,旨在解决在大量移动设备上进行分布式模型训练的问题,比如在Google Gboard安卓输入法中通过用户输入历史预测下一个词时,需保持用户数据隐私。联邦学习的核心在于设备只上传模型参数的梯度∇W,而不是原始数据,这有助于保护用户隐私。 国内自2018年开始引入联邦学习,与Google的FL相比,主要体现在两个方面:一是合作机构数量的不同,国内更偏向于跨机构(cross-silo)的有限合作,而Google FL则适用于大规模的移动设备;二是数据分割模式的区别,国内FL更多关注数据的纵向分割,即不同机构拥有不同部分数据,而Google FL则关注横向分割,即数据分布在不同的设备上。 联邦学习的发展历史见证了其不断优化和扩展的应用场景,从最初的移动设备预测应用逐渐扩展到医疗、金融等多个行业。然而,随着其广泛应用,也带来了新的安全挑战。首先,由于依赖模型参数的共享,攻击者可能尝试利用已知的梯度∇W来逆向推断原始数据,这在简单模型(如Logistic regression)中可以通过直接解方程组实现(LHCH19)。对于复杂模型(如CNN),可能需要使用机器学习方法来逼近解(MSCS19, ZLH19)。 为应对这些安全威胁,安全多方计算(Secure Multi-party Computation, MPC)应运而生。MPC是一种允许多方在不暴露各自私有信息的情况下执行计算的技术。在联邦学习中,它提供了保护隐私的方法,如在不泄露数据本身的情况下计算梯度聚合。这意味着在参数服务器上,各方可以安全地协作,仅交换必要的计算结果,而非原始数据,从而确保数据隐私。 总结来说,联邦学习与安全多方计算的结合是保障大数据时代隐私保护的关键技术,通过巧妙的设计和安全协议,能够在满足模型性能的同时,有效防止数据泄露,推动了诸如个性化推荐、医疗数据分析等众多领域的隐私友好发展。然而,随着技术的深入和应用场景的扩大,安全挑战也在不断升级,需要持续的研究和创新来应对。