hadoop2.7.7适合spark2.4.7和hive2.1.0吗
时间: 2024-04-03 20:36:32 浏览: 64
是的,Hadoop 2.7.7适用于Spark 2.4.7和Hive 2.1.0。这是因为Spark和Hive都依赖于Hadoop的核心组件,如HDFS和YARN。在使用Spark和Hive时,需要确保它们的版本与Hadoop版本兼容。实际上,Spark 2.4.7和Hive 2.1.0的官方文档中都建议使用Hadoop 2.7.x版本。您可以在Hadoop 2.7.7上同时安装和运行Spark 2.4.7和Hive 2.1.0。
阅读全文