spark的两种核心shuffle的工作流程
时间: 2023-04-03 21:01:56 浏览: 111
深入理解Spark 核心思想与源码分析
Spark的两种核心shuffle的工作流程是:Sort-based Shuffle和Hash-based Shuffle。Sort-based Shuffle会将数据按照key进行排序,然后将数据写入磁盘,最后进行reduce操作。Hash-based Shuffle则是将数据根据key的hash值进行分区,然后将数据写入内存缓存,最后进行reduce操作。
阅读全文