使用伪随机哈希函数的低空间元素区分度与子集和算法

版权申诉
0 下载量 187 浏览量 更新于2024-07-06 收藏 1.01MB PDF 举报
"这篇论文是关于使用伪随机散列函数实现真正低空间需求的元素区分度和子集和问题的解决方案。作者包括Lijie Chen、Ce Jin、R. Ryan Williams和Hongxun Wu,发表于2021年11月3日,arXiv编号为2111.01759v1,属于计算机科学领域,特别是数据结构(cs.DS)的范畴。" 在计算机科学中,元素区分度问题(Element Distinctness problem)是一个经典的问题,其目标是确定给定长度为n的整数数组中是否存在重复的元素。如果每个元素的位宽为O(log n),则需要设计一种算法来判断所有元素是否两两不同。之前的工作,如Beame、Clifford和Machmouchi在2013年FOCS会议上提出的一种算法,可以在时间复杂度约为O(n^1.5)的情况下解决这个问题,但该算法需要O(log n)的辅助空间,并且依赖于随机预言机,即只能读取多项式数量的随机位。 这篇论文解决了上述算法中的一个重要问题,即是否可以去除对随机预言机的依赖。作者提出了一种新的随机化算法,它仅使用O(log^3 n log log n)比特的空间,就能达到相同的时间复杂度O(n^1.5)。这一改进意味着算法对内存的需求显著降低,同时仍然保持了高效的运行时间。 此外,作为该研究成果的副产品,作者还得到了一个子集和问题(Subset Sum problem)的解决方案。子集和问题要求确定一个整数集合中是否存在一个非空子集,其元素之和等于给定的目标值。论文提供了一个在空间复杂度为多项式级(poly(n))的算法,其时间复杂度优化到了O*(2^0.86n)。这个结果对于处理大规模数据集具有重要意义,因为它的运行时间和空间需求都大大降低了。 这篇论文为解决经典计算问题提供了新的思路,特别是在有限空间下如何利用伪随机散列函数实现高效算法。这不仅深化了我们对散列函数和随机化算法的理解,也为实际应用中处理大数据集提供了理论支持。