第1关:spark-submit提交 解析
时间: 2023-10-27 17:14:57 浏览: 284
Spark源码系列(一)spark-submit提交作业过程
Spark-submit是Spark自带的提交脚本,用于将Spark应用程序提交到集群中运行。Spark-submit可以将应用程序打包成一个JAR包并提交到集群中运行,也可以直接提交一个Python文件或者一个Scala文件。
使用Spark-submit提交应用程序时,需要指定以下参数:
1. --class:指定主类名,如果是Java应用程序,需要指定该参数;如果是Scala应用程序,可以省略该参数,Spark-submit会自动查找Scala文件中的main函数。
2. --master:指定运行模式,可以是local、yarn、mesos等。
3. --deploy-mode:指定部署模式,可以是client或者cluster,如果是client模式,则Driver运行在提交任务的机器上;如果是cluster模式,则Driver运行在集群中的某个节点上。
4. --executor-memory:指定Executor的内存大小。
5. --total-executor-cores:指定Executor的总核数。
6. --num-executors:指定Executor的个数。
7. 应用程序的JAR包路径或者Python/Scala文件路径。
例如,使用Spark-submit提交一个Java应用程序,命令如下:
```
./bin/spark-submit --class com.spark.example.WordCount --master yarn --deploy-mode client --executor-memory 2g --total-executor-cores 4 --num-executors 2 /path/to/WordCount.jar /path/to/input /path/to/output
```
其中,--class指定了Java应用程序的主类名为com.spark.example.WordCount,--master指定了运行模式为yarn,--deploy-mode指定了部署模式为client,--executor-memory指定了每个Executor的内存大小为2g,--total-executor-cores指定了Executor总核数为4,--num-executors指定了Executor的个数为2,最后两个参数为输入和输出路径。
阅读全文