spark string 不定时
时间: 2023-08-09 20:06:03 浏览: 84
回答: 根据提供的引用内容,你可以使用Perl脚本来执行Spark任务。在引用\[2\]中的示例中,可以看到使用了`spark-submit`命令来提交Spark任务。在这个示例中,`spark_generateapp`变量包含了完整的`spark-submit`命令,其中指定了Spark的一些参数和要执行的任务。你可以根据需要修改这个命令来适应你的具体情况。在这个示例中,任务的执行结果会被重定向到`/home/hadoop/logs/genAppInfo.log`文件中。你可以根据需要修改这个路径。另外,这个示例中使用了`nohup`命令来使任务在后台运行。这样可以避免任务在终端关闭时被中断。如果任务执行成功,脚本会打印"done"并退出。如果任务执行失败,脚本会返回非零值。你可以根据需要对脚本进行修改和调整。
#### 引用[.reference_title]
- *1* *2* *3* [Spark:使用Crontab定时执行Spark任务](https://blog.csdn.net/weixin_38750084/article/details/82967090)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]
阅读全文