jobstart ww.sh 0 {A}{B}{C}
时间: 2024-10-11 10:11:26 浏览: 20
看起来你提供的"jobstart ww.sh 0 {A} {B} {C}"是一个可能不是标准Shell语法的组合,因为它包含了一些特殊的字符如大括号"{A} {B} {C}",这通常用于命令替换(command substitution)或变量赋值。
在这个表达式里,`ww.sh`可能是你想运行的一个脚本文件名,`0`可能是后台进程的优先级(在某些系统上,如Linux的nice命令),而{A}、{B}、{C}可能是要传递给脚本的参数,它们需要被替换为实际的值。例如:
```bash
jobstart ww.sh 0 "$A" "$B" "$C"
```
这里假设"A", "B", "C"是环境变量或命令行参数,并通过双引号包围以防被Shell解析。完整的命令执行可能是:
```
export A="value_A"
export B="value_B"
export C="value_C"
jobstart ww.sh 0 "$A" "$B" "$C" &
```
如果`jobstart`是个自定义的命令或者脚本工具,那么它的用法将取决于其具体设计。如果没有更多的上下文,这只能是一个猜测。
相关问题
在centos中未找到hadoop start-all.sh命令
在较新版本的 Hadoop 中,已经不再支持 `start-all.sh` 命令,而是建议使用以下命令分别启动各个组件:
- 启动 HDFS:`hdfs --daemon start namenode` 和 `hdfs --daemon start datanode`
- 启动 YARN:`yarn --daemon start resourcemanager` 和 `yarn --daemon start nodemanager`
- 启动 JobHistory Server:`mapred --daemon start historyserver`
如果你想启动所有组件,可以使用以下命令:
- `start-dfs.sh` 启动 HDFS 组件
- `start-yarn.sh` 启动 YARN 组件
- `mr-jobhistory-daemon.sh start historyserver` 启动 JobHistory Server 组件
需要注意的是,以上命令需要在 Hadoop 安装目录下的 `sbin` 目录中执行。
*/5 * * * * flock -xn /tmp/stargate.lock -c '/usr/local/qcloud/stargate/admin/start.sh
This is a cron job that runs every 5 minutes and uses the flock command to ensure that only one instance of the script is running at a time. The script being executed is /usr/local/qcloud/stargate/admin/start.sh.
阅读全文