spark submit运行java
时间: 2023-09-28 14:14:05 浏览: 161
Spark-submit是用于提交Spark应用程序的命令行工具。它可以将打包好的Java或Scala程序提交到Spark集群上运行。在使用spark-submit运行Java程序时,可能会遇到以下问题:
1. 日志被覆盖:在程序中手动打印的日志常常会因为被下一个Job的执行日志覆盖而无法查看。为了解决这个问题,可以将运行日志重定向到文件中。可以使用以下命令:spark-submit testSpark.jar > ~/testLog.out \[1\]。
2. 程序终止:一旦命令窗口被关闭或者电脑因断电等原因异常关闭,程序就会终止运行。为了解决这个问题,可以将Spark应用程序提交到集群上运行,而不是在本地运行。可以使用以下命令:spark-submit --deploy-mode cluster testSpark.jar \[2\]。
另外,还有一些其他常见的问题,比如打包问题和配置文件问题。打包问题可以通过配置Gradle文件来解决,确保将所有依赖项正确地打包到jar文件中。配置文件问题可以通过将配置文件打包到jar文件中,并在运行时将其解压到Spark的conf目录下来解决 \[3\]。
希望以上信息对您有所帮助。如果还有其他问题,请随时提问。
#### 引用[.reference_title]
- *1* [后台运行spark-submit命令的方法](https://blog.csdn.net/blank1990/article/details/49929723)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* [Spark集群中使用spark-submit提交jar任务包实战经验](https://blog.csdn.net/zrc199021/article/details/53999293)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *3* [通过spark-submit运行java程序](https://blog.csdn.net/qbw2010/article/details/79272382)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文