意思是直接将spark部署到hdfs上就不需要每个节点都部署一遍spark是吧?
时间: 2023-05-29 20:07:21 浏览: 163
是的,将Spark部署到HDFS上可以避免在每个节点上都部署Spark的需要,从而简化了集群管理和维护的工作。同时,这也可以提高集群的可用性和可靠性,因为数据和计算都可以在同一集群内进行,避免了跨集群传输的网络开销和潜在的故障风险。
相关问题
那我可以直接把spark分发给每个节点?
不建议直接将Spark分发到每个节点,因为这样会增加管理和维护的复杂性。相反,我们建议使用分布式文件系统(如HDFS)或对象存储(如S3)来存储Spark应用程序和数据,并使用集群管理工具(如YARN或Mesos)来管理和分配资源。这样可以确保资源管理和任务调度的效率,并简化集群管理的过程。
spark-sql读取hdfs上的文件保存到redis中,这里是redis以集群模式为主
可以使用Spark SQL读取HDFS上的文件,然后将数据保存到Redis集群中。具体实现可以使用Spark的Redis数据源插件,该插件支持将数据保存到Redis集群中。需要注意的是,在使用Redis集群时,需要配置好Redis集群的节点信息和密码等参数。
阅读全文