spark、spark-core、rdd 总结
时间: 2023-04-30 15:00:17 浏览: 120
Spark是一个开源的分布式计算框架,可以在大规模数据集上进行高速计算。Spark Core是Spark的核心组件,提供了分布式任务调度、内存管理、容错机制等基础功能。RDD(Resilient Distributed Datasets)是Spark中的基本数据结构,是一个可分区、可并行计算的数据集合,支持多种操作,如转换、行动等。通过RDD,Spark可以在内存中高效地处理大规模数据集。
阅读全文