Hadoop平台上的大数据全局扩散加密算法研究

需积分: 0 0 下载量 115 浏览量 更新于2024-09-05 收藏 518KB PDF 举报
"这篇论文研究了在Hadoop平台下如何实现一种全局扩散性的分组排列加密算法,以解决大规模数据集的安全加密问题。随着云计算和大数据时代的到来,数据安全变得至关重要,而传统的加密方法在应对大数据时可能存在安全隐患。论文提出了一个适用于大规模数据集的分组加密排列算法,通过特定轮数的加密过程实现全局扩散效果,从而提高数据安全性。此外,该算法还基于MapReduce编程模型在Hadoop平台上进行了实现和验证,实验结果表明该算法具有良好的全局扩散性,能有效提升大数据加密的安全性。" 本文的研究背景是大数据时代的数据安全问题。随着互联网的发展,数据量呈指数级增长,而现有安全机制在面对大数据时的不足逐渐暴露,传统的密码学方法直接应用于大数据加密可能存在风险。例如,图1所示的AES算法加密图片的例子说明了不恰当的加密可能导致数据安全性降低。 为了应对这一挑战,论文提出了一种新的分组加密排列算法。该算法设计的目标是实现全局扩散性,即任何明文数据的微小变化都会导致所有密文数据的变化,增强了加密的复杂性和安全性。算法的核心是通过对数据进行特定次数的分组加密操作来达到全局扩散的效果。对于数据规模为[2^m, N<2^(m+1)]的数据集,论文中提到经过[m+2]轮加密可以实现这一目标。 此外,论文还将提出的加密算法与Hadoop平台上的MapReduce编程模型相结合。MapReduce是一种分布式计算模型,适合处理大规模数据集,这使得新算法能在分布式环境中高效运行。在Hadoop上实现该算法,不仅能够利用云计算的并行计算能力,还能扩展到更大规模的数据处理。 通过理论分析和实验验证,论文证明了所提出的分组加密排列算法具有优异的全局扩散性,能够有效地提高大规模数据集的安全性。这为大数据环境下的数据加密提供了新的思路和解决方案,对于保护个人隐私和企业数据安全具有重要意义。 这篇论文深入探讨了大数据环境下数据安全的挑战,提出了一种创新的、基于Hadoop的分组加密排列算法,该算法解决了传统加密方法的局限性,并在实际应用中展现了良好的性能。这一研究为大数据安全领域提供了有价值的理论基础和技术支持。